Noch vor nicht allzu langer Zeit waren die Randbedingungen für Applikationsentwickler und IT-Architekten in Bezug auf den Speicherzugriff (I/O) klar definiert. Neben der CPU waren es vor allem Hauptspeicher, Cache und Festplatten, die eine relativ übersichtliche Struktur aus bekannten Variablen ergaben. Die Festplatte als klassisches Speichermedium persistent und robust, die Daten im Memory flüchtig, schnell und von der Kapazität her begrenzt. Auf den Vorgaben dieser klassischen Hierarchie beruht dann mit Ausnahme von In-Memory-Apps auch das gängige Anwendungsdesign: Latenzen aufgrund der I/O-Performance-Lücke müssen systemseitig je nach Anwendung intelligent behandelt werden.
Zwischenzeitlich sind jedoch massive Fortschritte im Bereich der Halbleiterspeicher-Entwicklung zu verzeichnen und latenzarme Medien sind nicht mehr das Thema. Die daraus resultierende Konvergenz von Memory und Storage – der Speicher rückt näher an die CPU – führt derzeit zu hochgradig virtualisierten Server-SANs und neuen I/O-Architekturen. Dies geht einher mit einer steigenden Menge an zu verarbeitenden Daten und neuen Anwendungen mit Echtzeit-Anforderungen. Eine der Kernfragen für Entwickler lautet damit: Wie können Applikationen damit sinnvoll umgehen und am besten davon profitieren?
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.