Friday, November 16, 2007

Virtuelle Welten verändern die IT

San Francisco, 11. bis 13. September 2007 - Mehr als 10.800 IT-Profis, Firmenchefs, IT-Dienstleister, Branchenexperten, Wissenschaftler, Presse und Analysten kamen im Moscone Center in San Francisco auf der weltgrössten Konferenz für Virtualisierung der VMworld 2007 zusammen. Die perfekt organisierte Veranstaltung widmete sich den Themen Server Konsolidierung, Flexible & Dynamische IT, Sicherheit in der Virtualisierung, Software Lifecycle Automation, Green Data Center, Disaster Recovery, Business Continuity und Enterprise Desktop Virtualisierung mit mehr als 250 Einzelbeiträgen und mehr als 100 praktischen Workshops. Zudem bekundeten 147 Herstellern in der begleitenden Ausstellung ihr Engagement im Umfeld der Virtualisierung.
Es herrschte eine in der IT-Welt in den letzten Jahren selten gewordene Aufbruchsstimmung. Schon zum Frühstück traf man sich spontan in kleinen Diskussionsrunden, um offen über Erfahrungen, Erfolge und Rückschläge zu sprechen.

Gartner prognostiziert einen Anstieg der virtualisierten Systeme von 540.000 im Jahr 2006 auf über 4 Millionen im Jahr 2009. Bemerkenswert ist die enorme Motivationsbreite, die Unternehmen dazu bewegt, in das Thema Virtualisierung einzusteigen. Die Gründe, diesen Weg zu beschreiten, sind dabei eindeutig signifikante Einsparungen im IT-Betrieb. Quantitative Einsparungen sind in den folgenden Bereichen möglich: Einsatz von weniger Hardware, bessere Auslastung der Hardware, Optimierung des primären wie klimabedingten Energieverbrauchs, Einsparungen von Serviceverträgen und Raumbedarf.
In die qualitativen Kosteneinsparungen fallen: zeitliche Entkopplung der Bereitstellung von Ressourcen von deren Beschaffung, schnelleres Deployment, eine reale Testumgebung, massiv beschleunigtes und generationsunabhängiges Disaster Recovery. Virtualisierung treibt eine komplette Erneuerung der Infrastruktur voran. Das Rechenzentrum insgesamt sowie seine einzelnen Infrastruktur Systeme und Services werden modernisiert und optimiert.
Wird in einer Kostenrechnung der traditionelle IT-Betrieb einer Virtualisierungsvariante gegenübergestellt, so hat die Virtualisierung, selbst unter der schlechtesten Annahme für sie, praktisch immer die Nase vorn.

Die Enterprise-Virtualisierung befindet sich ihrem Alter nach auf der Schwelle zum Erwachsenwerden. Die Jugend endete vor ungefähr zwei Jahren. Seit dieser Zeit demonstriert sie unaufhörlich ihre neuen Fähigkeiten; und ein Ende ist nicht in Sicht. Die grössten Fortschritte erreichte sie im Bereich der Verfügbarkeit und des Disaster Recovery. Die enorme Effizienz der Ressourcennutzung bei Strom, Klima und Blech ist fast schon ein Nebeneffekt. Schon spricht man von einem Durchbruch in der Green-IT. So werden nicht mehr benötigte Ressourcen schlicht automatisiert abgeschaltet und bei Bedarf wieder gestartet.
Der Platzhirsch VMware hat 1999 die x86-Virtualisierung erfunden und bietet Ende 2007 bereits erste Eigenschaften autonomer Systeme: Stichworte sind hier VMotion und Storage VMotion zusammen mit Dynamic Ressource Scheduling (DRS). Die VMware Virtual Infrastructure 3 ist in der Lage, die Auslastung der Ressourcen Rechenleistung, Arbeitsspeicher und Netzwerkdurchsatz regelbasiert und automatisiert zu optimieren.
Dies alles ist nicht ohne die Unterstützung von Intel und AMD möglich, die ihrerseits ihre Prozessorfunktionalität dem Megatrend Virtualisierung anpassen. Die grossen Serverhersteller, allen voran Dell, statten ihre Serverhardware schon zum Ende diesen Jahres mit einem vorinstallierten Thin Hypervisor wahlweise aus dem Hause VMware und Citrix aus. So kann sie in weniger als zwei Minuten einsatzbereit sein, Virtualisierung inklusive. Der Hypervisor befindet sich direkt auf der Hardware. Oft wird der Hypervisor als etwas betrachtet, das sich auf derselben Ebene befindet wie das Betriebssystem. Aber das Betriebssystem hat viel mehr Aufgaben als der Hypervisor - es verwaltet die Anwendungen für den Anwender. Der Hypervisor verwaltet lediglich die Ressourcen. Die virtuelle Infrastruktur bündelt diese Ressourcen und liefert Zuverlässigkeit und Flexibilität für die Software in virtuellen Maschinen. Bei VMware ist dieses 'SuperBIOS' ganze 32MB schlank. Es nennt sich ESX 3i und entstammt einer Schlankheitskur bei der man sich aus Sicherheitsgründen vom Console Operating System trennte. Das COS, ein gehärtetes Red Hat Linux , machte immerhin 98% der Grösse des Hypervisors aus und war für rund 50% aller Patches verantwortlich. Citrix nennt es XenServer Express Edition. Auch der BIOS Hersteller Phoenix arbeitet zusammen mit Joana Rutkowska's Invisible Things Lab am 'HyperCore' genannten Ultra Thin Hypervisor.
Der Enterprise Desktop Virtualisierung hat sich VMware mit der Gründung der 'Virtual Desktop Infrastructure Alliance' im Jahre 2006 verschrieben. Citrix ist ein Mitglied der ersten Stunde. Mittlerweile ist zwischen beiden Unternehmen ein ernster Wettbewerb ausgebrochen. VMware hat mit dem Konzept VDI den bis dahin von Citrix und Microsoft beherrschten Markt der Terminal Services betreten. Die vollwertigen virtualisierten Desktops laufen im Data Center auf der gleichen virtuellen Infrastruktur wie die Server; mit allen bereits oben erwähnten Fähigkeiten. Die Bereitstellung erfolgt mittels eines Vermittlers automatisiert und regelbasiert.
Automatisierung ist ein durchgängiges Konzept der Enterprise Virtualisierung und ein Schlüssel zum Erfolg. IT-Sicherheit ist der zweite Schlüssel. Gartner wird nicht müde vor den neuen Gefahren der Virtualisierung zu warnen. Da ist einmal der Hypervisor selbst. Ein erfolgreicher Angriff hat bis heute noch nicht stattgefunden, sieht man von den recht obscuren Versuchen mit farbigen Pillen einmal ab. Die Hersteller sind gut beraten, sich hier selbst wirksam zu engagieren; hängt doch ihr Geschäftserfolg direkt davon ab. So strebt VMware zum Ende des Jahres die Zertifizierung nach CC EVS EAL4+ an. Zudem investiert man kräftig in IT-Sicherheitstechnologie wie der Kauf von Determina zeigt. Allein der schlanke Hypervisor und die geringe Zahl der Schnittstellen verspricht eine kleine Angriffsfläche. Wie bei jeder Technologie bleibt am Ende des Tages die fehlerhafte Konfiguration die Schwachstelle schlechthin.
Die Empfehlung folgt weiter dem Grundsatz aus der physikalischen Welt: der 'Defense in Depth' . Neben der Beobachtung der CERT Nachrichten zur Produktsicherheit verspricht die sichere Konfiguration und Pflege aller Softwareschichten eine kleine Angriffsfläche. Um den Fähigkeiten virtueller Infrastrukturen gerecht zu werden, sind in den vergangenen Monaten etablierte Anbieter von IT-Sicherheits Produkten dabei, ihre Produkte anzupassen. Hier werden wir in den nächsten Monaten sicher neue Ansätze sehen, die den Hypervisor selbst als Sicherheitsschicht nutzen. VMware hat ausgewählte Hersteller unter dem Arbeitstitel 'Vsafe' zur Zusammenarbeit in Sachen IT-Sicherheit eingeladen.
Es herrschen turbulente Zeiten in der IT. Ständige technische Neuerungen konkurrieren mit Stabilität virtueller Infrastrukturen. Und dies hat nicht zuletzt Auswirkungen auf bestehende Prozesse und die Menschen, die mit IT arbeiten.


Virtualisierung zwischen Strategie und Taktik

+ Ernennen Sie einen Chief Virtualization Officer und bilden Sie eine virtuelle Einheit aus Server-, Netzwerk-, Speicher-, IT-Sicherheits- und Anwendungsspezialisten, die fließend „Virtualisierung“ sprechen.
+ Sammeln Sie alle versprengten Virtualisierungsansätze ein; Server- und Desktop Virtualisierung.
+ Erarbeiten Sie Design- und Layout-Richtlinien für die virtuelle Infrastruktur (Performance, Verfügbarkeit und IT-Sicherheit)
+ Prüfen Sie frühzeitig Ihre Speichernetzwerk Strategie.
+ Identifizieren Sie existierende ITIL Prozesse und bilden Sie sie auf Ihre virtuelle Infrastruktur ab.
+ Beginnen Sie mit der Automatisierung und Standardisierung im Change-, Capacity-, & Configuration- Management .
+ Leisten Sie sich reale Testumgebungen und ein generations-unabhängiges Disaster Recovery.
+ Beobachten Sie die CERT-Nachrichten zum Thema Virtualisierung sorgfältig.