Virtualisierung ist eigentlich ein alter Hut. Die Grundidee ist immer dieselbe: Die Hardware wird durch eine überlagernde Softwareschicht unsichtbar für die sie nutzenden Programme. Funktionen, die zuvor von den Systemen selbst erbracht wurden, laufen redundant. Physische Ressourcenzuweisungen werden durch logische ersetzt. Das Ergebnis: Die vorhandenen physischen Ressourcen lassen sich flexibel und ohne Hardware-Eingriffe je nach Bedarf verteilen und nutzen. Die Effizienz steigt, die Kosten für die Gerätebeschaffung sinken. Denn es kann Standardhardware zum Einsatz kommen, statt teure proprietäre Systeme zu kaufen.
Wer glaubt, erst mit den modernen Servern und VMware habe die Virtualisierung die IT erreicht, irrt gründlich. Vielmehr gab es dieses Konzept schon beim Mainframe: Mit LPAR (logischer Partitionierung) ließen sich dessen gesamte Ressourcen in mehrere logische Systeme aufteilen. IBM nutzt sein LPAR-System übrigens noch immer für seine Großrechnerarchitektur Z Systems. Im Grunde ist die IT daher mit einer Cloud wieder da angekommen, wo sie einst beim Mainframe angefangen hat. Wichtigster Unterschied: Heutige Standardhardware kommt von vielen Herstellern, skaliert schrittweise zu günstigen Kosten und nutzt gängige und oft offene Betriebssysteme, was mehr Flexibilität bei Hard- und Softwareauswahl bedeutet.
Sobald Mainframes durch kleinere, selbständige Systeme wie Workstations oder Intel-Server ergänzt oder ersetzt wurden und Client-Server-Infrastrukturen entstanden, stellte sich die Frage: Ist es effizient, einen Server lediglich für eine Anwendung einzusetzen? Dieses Konzept versprach zwar viel Komfort und die Möglichkeit, die Ressourcen speziell für diese Anwendung optimal zu dimensionieren, außerdem war die Sicherheit naturgemäß groß. Andererseits entstanden teure Serverzoos mit entsprechenden Verwaltungs- und
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.