Seit 2005 bieten Intels Prozessoren Hardwareunterstützung für Virtualisierung. Die entsprechende Technik, die unter dem Entwicklungsnamen Vanderpool eingeführt und mit der aktuellen Nehalem-Architektur deutlich erweitert wurde, stellt dieser Artikel vor.
Virtuelle Server sind heute nirgendwo mehr wegzudenken. Dabei steht ihre Karriere laut Gartner sogar erst am Anfang: Laufen heute erst 16 Prozent aller Workloads auf virtuellen Maschinen, soll es bereits 2012 jeder zweite sein [1]. So segensreich eine solche Serverkonsolidierung aber in vielen Fällen auch sein mag, in den damit verbundenen technologischen wie organisatorischen Veränderungen lauern Risiken, die die Sicherheit gefährden können.
Ist alles nur heiße Luft, wie manche meinen, oder handelt es sich tatsächlich um einen Paradigmenwechsel des Computing und den wichtigste Trend in diesem Jahr? Beim Cloud Computing gehen die Meinungen auseinander. Dieser Beitrag nimmt es unter die Lupe.
Wie halten es die Anbieter von Virtualisierungslösungen mit offenen Standards? Wie denken sie über unabhängige Managementlösungen? Was tun sie für die Ausfallsicherheit? Eine Umfrage unter namhaften Anbietern beschert Antworten.
Woran denkt man, wenn man den Begriff Virtualisierung hört? An einen Hypervisor wie Citrix XenServer oder den ESX-Server von VMware? Oder an virtualisierte Services wie beim Cloud Computing? Oder an Multicore-CPUs mit Hyperthreading, die virtuelle Prozessoren ermöglichen? Am besten betrachtet man all diese Erscheinungsformen von Virtualisierung nicht isoliert, sondern als Teile eines einzigen Performance-Management-Puzzles. Dieser Beitrag erklärt wieso und er unterstreicht, wie wichtig es ist, durch kontrollierte Performance-Messungen Daten zu sammeln.
Paravirtualisierung ist performant, setzt aber modifizierbare Gastbetriebssysteme voraus. Emulation funktioniert ohne solche Eingriffe, kostet aber Geschwindigkeit. Längst weisen die Prozessorhersteller einen dritten Weg aus dem Dilemma: Hardwareunterstütze Virtualisierung. Sie verspricht das Beste beider Welten zu vereinen. Wie das genau funktioniert, erklärt dieser Beitrag am Beispiel von AMD-V.
Wie funktioniert Virtualisierung und was eint oder trennt die zahlreichen Angebote? Welches eignet sich für welchen Zweck? Ein Blick hinter die Kulissen.
Jeff Dike: User Mode Linux Prentice Hall, 2006Andrej Radonic, Frank Meyer: Xen 3 Franzis Verlag, 2006 439
Virtualisierung schafft Sicherheit. Das ist richtig – aber das Gegenteil stimmt ebenfalls: In der Hand des Angreifers kann sie sich in eine Waffe verwandeln, die an Gefährlichkeit bisher Dagewesenes übertrifft. Doch es gibt Auswege
Editorial der Printausgabe zum Thema Virtualisierung
Wäre es zum Beispiel möglich, eine Waschmaschine zu virtualisieren, dann hätte man einen ganz ähnlichen Nutzen, allerdings auch vergleichbare Probleme wie in der Computerwelt. Nur: Für Rechner sind sie größtenteils gelöst.
Wer vor den ersten Schritten mit Xen noch zaudert, weil es ihm zu kompliziert erscheint, wird hier eines Besseren belehrt: Eisxen beweist in diesem Workshop, dass es auch ganz anders geht: Einfach und schnell. Von Null auf Xen in zehn Minuten.
Einen PC aus der Buchhaltung kann man nicht einfach in die Auftragsvorbereitung stellen. Oder doch? OpenQRM, ein neues Verwaltungstool, mit einer neuen Identität.
Qemu ist freie Software und bringt zahlreiche Betriebssysteme als Gast auf den Linux-Rechner. Daneben kann es Prozessoren emulieren: Dank dynamischer Translation ahmt eine Intel-Maschine beispielsweise einen Arm-, Sparc- oder PowerPC-Prozessor nach.
Lizenzen können in einer Virtualisierungslösung zum Problem werden. Wählt der Programmierer das CPU-Modell, um sich das Management zu sparen, tappt er in die Fortschritts-Falle.
Auch IT wird meist erst aus Erfahrung klug – und die erlangt auch sie nur mit der Zeit. Deshalb ist sie in ihren Jugendjahren oft besonders schutzbedürftig. Man denke an die Kindheit des WLAN, an VoIP, an Bluetooth. Selbst Laptops, mittlerweile Twens, sind noch Sorgenkinder in Sachen Sicherheit. Virtualisierung macht da keine Ausnahme.
User Mode Linux – das bedeutet: Linux unter Linux, wie nach dem Matroschka-Prinzip. UML ist einfach zu handhaben und hat etliche nützliche Spezialitäten in petto. In diesem Workshop begleitet sein Entwickler und Maintainer Jeff Dike den Leser auf dem ersten Wegstück von der UML-Installation bis zu den mächtigen COW-Dateien.
Betriebssystem-Virtualisierung ist attraktiv, weil sie die Ressourcen schont. Das Vserver-Projekt ermöglicht sogar ausgefeiltes Ressourcen-Management. Dieser Workshop demonstriert alles Nötige von den ersten Schritten bis zu den höheren Weihen der fortgeschrittenen Vserver-Administration.
Inzwischen bieten viele Linux-Distributionen vorkompilierte Xen-Pakete an, doch mit der Installation des Host allein ist es nicht getan – dieser Artikel demonstriert deshalb neben einer Xen-Musterinstallation unter Fedora Core 5 auch, wie der Benutzer danach einfach und schnell zu virtuellen Gästen kommt.