Friday, November 16, 2007

Virtuelle Welten verändern die IT

San Francisco, 11. bis 13. September 2007 - Mehr als 10.800 IT-Profis, Firmenchefs, IT-Dienstleister, Branchenexperten, Wissenschaftler, Presse und Analysten kamen im Moscone Center in San Francisco auf der weltgrössten Konferenz für Virtualisierung der VMworld 2007 zusammen. Die perfekt organisierte Veranstaltung widmete sich den Themen Server Konsolidierung, Flexible & Dynamische IT, Sicherheit in der Virtualisierung, Software Lifecycle Automation, Green Data Center, Disaster Recovery, Business Continuity und Enterprise Desktop Virtualisierung mit mehr als 250 Einzelbeiträgen und mehr als 100 praktischen Workshops. Zudem bekundeten 147 Herstellern in der begleitenden Ausstellung ihr Engagement im Umfeld der Virtualisierung.
Es herrschte eine in der IT-Welt in den letzten Jahren selten gewordene Aufbruchsstimmung. Schon zum Frühstück traf man sich spontan in kleinen Diskussionsrunden, um offen über Erfahrungen, Erfolge und Rückschläge zu sprechen.

Gartner prognostiziert einen Anstieg der virtualisierten Systeme von 540.000 im Jahr 2006 auf über 4 Millionen im Jahr 2009. Bemerkenswert ist die enorme Motivationsbreite, die Unternehmen dazu bewegt, in das Thema Virtualisierung einzusteigen. Die Gründe, diesen Weg zu beschreiten, sind dabei eindeutig signifikante Einsparungen im IT-Betrieb. Quantitative Einsparungen sind in den folgenden Bereichen möglich: Einsatz von weniger Hardware, bessere Auslastung der Hardware, Optimierung des primären wie klimabedingten Energieverbrauchs, Einsparungen von Serviceverträgen und Raumbedarf.
In die qualitativen Kosteneinsparungen fallen: zeitliche Entkopplung der Bereitstellung von Ressourcen von deren Beschaffung, schnelleres Deployment, eine reale Testumgebung, massiv beschleunigtes und generationsunabhängiges Disaster Recovery. Virtualisierung treibt eine komplette Erneuerung der Infrastruktur voran. Das Rechenzentrum insgesamt sowie seine einzelnen Infrastruktur Systeme und Services werden modernisiert und optimiert.
Wird in einer Kostenrechnung der traditionelle IT-Betrieb einer Virtualisierungsvariante gegenübergestellt, so hat die Virtualisierung, selbst unter der schlechtesten Annahme für sie, praktisch immer die Nase vorn.

Die Enterprise-Virtualisierung befindet sich ihrem Alter nach auf der Schwelle zum Erwachsenwerden. Die Jugend endete vor ungefähr zwei Jahren. Seit dieser Zeit demonstriert sie unaufhörlich ihre neuen Fähigkeiten; und ein Ende ist nicht in Sicht. Die grössten Fortschritte erreichte sie im Bereich der Verfügbarkeit und des Disaster Recovery. Die enorme Effizienz der Ressourcennutzung bei Strom, Klima und Blech ist fast schon ein Nebeneffekt. Schon spricht man von einem Durchbruch in der Green-IT. So werden nicht mehr benötigte Ressourcen schlicht automatisiert abgeschaltet und bei Bedarf wieder gestartet.
Der Platzhirsch VMware hat 1999 die x86-Virtualisierung erfunden und bietet Ende 2007 bereits erste Eigenschaften autonomer Systeme: Stichworte sind hier VMotion und Storage VMotion zusammen mit Dynamic Ressource Scheduling (DRS). Die VMware Virtual Infrastructure 3 ist in der Lage, die Auslastung der Ressourcen Rechenleistung, Arbeitsspeicher und Netzwerkdurchsatz regelbasiert und automatisiert zu optimieren.
Dies alles ist nicht ohne die Unterstützung von Intel und AMD möglich, die ihrerseits ihre Prozessorfunktionalität dem Megatrend Virtualisierung anpassen. Die grossen Serverhersteller, allen voran Dell, statten ihre Serverhardware schon zum Ende diesen Jahres mit einem vorinstallierten Thin Hypervisor wahlweise aus dem Hause VMware und Citrix aus. So kann sie in weniger als zwei Minuten einsatzbereit sein, Virtualisierung inklusive. Der Hypervisor befindet sich direkt auf der Hardware. Oft wird der Hypervisor als etwas betrachtet, das sich auf derselben Ebene befindet wie das Betriebssystem. Aber das Betriebssystem hat viel mehr Aufgaben als der Hypervisor - es verwaltet die Anwendungen für den Anwender. Der Hypervisor verwaltet lediglich die Ressourcen. Die virtuelle Infrastruktur bündelt diese Ressourcen und liefert Zuverlässigkeit und Flexibilität für die Software in virtuellen Maschinen. Bei VMware ist dieses 'SuperBIOS' ganze 32MB schlank. Es nennt sich ESX 3i und entstammt einer Schlankheitskur bei der man sich aus Sicherheitsgründen vom Console Operating System trennte. Das COS, ein gehärtetes Red Hat Linux , machte immerhin 98% der Grösse des Hypervisors aus und war für rund 50% aller Patches verantwortlich. Citrix nennt es XenServer Express Edition. Auch der BIOS Hersteller Phoenix arbeitet zusammen mit Joana Rutkowska's Invisible Things Lab am 'HyperCore' genannten Ultra Thin Hypervisor.
Der Enterprise Desktop Virtualisierung hat sich VMware mit der Gründung der 'Virtual Desktop Infrastructure Alliance' im Jahre 2006 verschrieben. Citrix ist ein Mitglied der ersten Stunde. Mittlerweile ist zwischen beiden Unternehmen ein ernster Wettbewerb ausgebrochen. VMware hat mit dem Konzept VDI den bis dahin von Citrix und Microsoft beherrschten Markt der Terminal Services betreten. Die vollwertigen virtualisierten Desktops laufen im Data Center auf der gleichen virtuellen Infrastruktur wie die Server; mit allen bereits oben erwähnten Fähigkeiten. Die Bereitstellung erfolgt mittels eines Vermittlers automatisiert und regelbasiert.
Automatisierung ist ein durchgängiges Konzept der Enterprise Virtualisierung und ein Schlüssel zum Erfolg. IT-Sicherheit ist der zweite Schlüssel. Gartner wird nicht müde vor den neuen Gefahren der Virtualisierung zu warnen. Da ist einmal der Hypervisor selbst. Ein erfolgreicher Angriff hat bis heute noch nicht stattgefunden, sieht man von den recht obscuren Versuchen mit farbigen Pillen einmal ab. Die Hersteller sind gut beraten, sich hier selbst wirksam zu engagieren; hängt doch ihr Geschäftserfolg direkt davon ab. So strebt VMware zum Ende des Jahres die Zertifizierung nach CC EVS EAL4+ an. Zudem investiert man kräftig in IT-Sicherheitstechnologie wie der Kauf von Determina zeigt. Allein der schlanke Hypervisor und die geringe Zahl der Schnittstellen verspricht eine kleine Angriffsfläche. Wie bei jeder Technologie bleibt am Ende des Tages die fehlerhafte Konfiguration die Schwachstelle schlechthin.
Die Empfehlung folgt weiter dem Grundsatz aus der physikalischen Welt: der 'Defense in Depth' . Neben der Beobachtung der CERT Nachrichten zur Produktsicherheit verspricht die sichere Konfiguration und Pflege aller Softwareschichten eine kleine Angriffsfläche. Um den Fähigkeiten virtueller Infrastrukturen gerecht zu werden, sind in den vergangenen Monaten etablierte Anbieter von IT-Sicherheits Produkten dabei, ihre Produkte anzupassen. Hier werden wir in den nächsten Monaten sicher neue Ansätze sehen, die den Hypervisor selbst als Sicherheitsschicht nutzen. VMware hat ausgewählte Hersteller unter dem Arbeitstitel 'Vsafe' zur Zusammenarbeit in Sachen IT-Sicherheit eingeladen.
Es herrschen turbulente Zeiten in der IT. Ständige technische Neuerungen konkurrieren mit Stabilität virtueller Infrastrukturen. Und dies hat nicht zuletzt Auswirkungen auf bestehende Prozesse und die Menschen, die mit IT arbeiten.


Virtualisierung zwischen Strategie und Taktik

+ Ernennen Sie einen Chief Virtualization Officer und bilden Sie eine virtuelle Einheit aus Server-, Netzwerk-, Speicher-, IT-Sicherheits- und Anwendungsspezialisten, die fließend „Virtualisierung“ sprechen.
+ Sammeln Sie alle versprengten Virtualisierungsansätze ein; Server- und Desktop Virtualisierung.
+ Erarbeiten Sie Design- und Layout-Richtlinien für die virtuelle Infrastruktur (Performance, Verfügbarkeit und IT-Sicherheit)
+ Prüfen Sie frühzeitig Ihre Speichernetzwerk Strategie.
+ Identifizieren Sie existierende ITIL Prozesse und bilden Sie sie auf Ihre virtuelle Infrastruktur ab.
+ Beginnen Sie mit der Automatisierung und Standardisierung im Change-, Capacity-, & Configuration- Management .
+ Leisten Sie sich reale Testumgebungen und ein generations-unabhängiges Disaster Recovery.
+ Beobachten Sie die CERT-Nachrichten zum Thema Virtualisierung sorgfältig.

Sunday, July 03, 2005

Podcast gab es 1993 schon...

Internet Talk Radio war 1993 ein ehrgeiziges Experiment von Radioleuten und Netzwerkprofis. Aus Tonstudios in Wahington D.C. wurden Audiodateien als Nachrichten über das Internet veröffentlicht. Diese konnte man sich auf Arbeitsplatzrechnern ausgestattet mit Soundkarte und Lautsprechern anhören.
Und schon diese Audiodateien waren als O'Reilly Audiotapes vom Herausgeber O'Reilly & Associates, Inc., Sebastopol CA ein bis zweimal pro Monat als Tonkassette beziehbar.

Unser iPod war der Walkman oder einfach das Kassettendeck im Autoradio.

O'Reilly bewarb 1993 sein ORAUDIO so:

Not everyone has an audio-equipped workstation, and even among those who do, time remains a precious commodity. What's more, anyone who commutes regularly has experienced the wasteland of commercial radio. "Drive Time" is an incredible time to listen to these stimulating interviews. This is agreat way to track the developments changing the face of the internet instead of vainly pushing buttons in hopes of hearing something new.

Monday, June 27, 2005

Brennstoffzelle für Notebooks

Geht es Ihnen auch so? Kaum denkt man an etwas und schon erscheint irgendwo auf der Welt eine Nachricht genau zu diesem Thema. Und dann ist es noch ein Dejavue. All die Aussagen glaube ich schon 1999 gehört zu haben...


Richtlinien für Notebook-Brennstoffzellen veröffentlicht
27.06.2005 um 14:28 Uhr

MÜNCHEN (COMPUTERWOCHE) - Das Herstellerkonsortium Mobile PC Extended Battery Life Working Group hat Richtlinien veröffentlicht, die die Entwicklung von Brennstoffzellen als Stromversorgung portabler PCs in den kommenden Jahren vorantreiben sollen. Dargestellt wird darin, wie Brennstoffzellen aussehen sollten, damit sie zur Verwendung mit Notebooks taugen.

Unter anderem geht es dabei um den Formfaktor - für den Einbau in einer Media Bay zum Beispiel dürfte eine Brennstoffzellen nur ungefähr 10 x 130 x 130 Millimeter messen, erklärte Kamal Shah, der der Konsortium vorsitzt und hauptberuflich als Manager von Intels Mobility Enabling Initiative arbeitet. Ein weiteres Problem des Designs ist die Abwärme, die Brennstoffzellen erzeugen - bislang ist sie zu hoch.

Gegenwärtig arbeiteten mehr als 60 Hersteller an Direkt-Methanol-Brennstoffzellen für mobile Endgeräte, erklärte Jim Balcom, Chef von PolyFuel. Intel-Mann Shah erwartet, dass Brennstoffzellen zunächst als externes Zubehör auf den Markt kommen und dabei quasi beim mobilen Einsatz das Netzteil ersetzen werden. Entsprechend werde es über fünf bis zehn Jahre hinweg eine Koexistenz von Brennstoffzellen und herkömmlichen Akkus geben. Danach sei eine Integration der Zellen in Laptops denkbar, erklärte Shah, vorausgesetzt, die thermischen und Miniaturisierungsprobleme seien rechtzeitig zu lösen. (tc)

via COMPUTERWOCHE

Sunday, June 26, 2005

Wo bleibt die mobile Steckdose?

Ich besitze eine ganze Menge mobiler Kommunikationsmittel. Das sieht man an den zahlreichen schwarzen Würfel entlang der Wohnungswände. GSM, GPRS, UMTS, WLAN und wo bleibt WCPS? Ach so, WCPS nenne ich 'Wireless Commercial Power Supply'.

Vor drei Jahren startete das eGarden-Projekt im Englischen Garten in München. WLAN für die beschaulichen Momente unter rauschendem Blätterdach. Allein nach spätestens 3-4 Stunden begann ich die Suche nach einer Steckdose. Aber dank drastischer Senkungen des Stromverbrauchs der mobilen Spielsachen komme ich heute auf 5-7 Stunden.

Und seit dieser Zeit träume ich von einer miniaturisierten Brennstoffzelle für Notebooks. Die Jungs hatten uns sehr früh sehr viel versprochen. Vor zwei Jahren wollte man die ersten Mobile Phones mit Brennstoffzelle auf den Markt bringen.