Lange Zeit haben Speichersilos die traditionellen Datenzentren regiert. Unternehmen kauften separate Primär- und Sekundärspeichersysteme - und das aus gutem Grund. Die Endnutzer unternehmenskritischer Anwendungen, wie E-Mail und Datenbanken, fordern die Leistung, die Primärspeichersysteme liefern. Beim Backup solcher Anwendungen muss auf die
Backup-Daten jedoch nicht in Echtzeit zugegriffen werden. Das entscheidende Kriterium sind hier oft die Kosten, die bei Sekundärspeichersystemen unübertroffen gering sind. Aber es gibt eine unerbittliche Flut, die diese Trennwände zwischen den Silos unterspült.
Die maßstabsgerechte Einhaltung strenger Datensicherungsanforderungen verlangt einen anderen Ansatz – einen, für den die traditionelle Methodologie “read-move-write”, die die Produktivinfrastruktur beeinträchtigt, nicht erforderlich ist. Zur Einhaltung strenger Anforderungen greifen Unternehmen immer öfter zu integrierten Speichersystemen, die als Primärspeichersysteme dienen können, aber auch über eine integrierte Datensicherung verfügen. Diese wird durch die Nutzung effizienter Speicher-Snapshots erreicht.
Wie aber können Primärspeichersysteme die Leistung und Verfügbarkeit liefern, die kritische Anwendungen erfordern, und gleichzeitig Datensicherung bieten? Ist es möglich, Leistung, hohe Verfügbarkeit und Datensicherung kosteneffizient zu liefern? Drei wesentliche Grundlagen – eine Fehlertoleranzarchitektur, moderne Speicher-Snapshots und Datenanalyse – können zusammenwirken, um die Basis für hohe Datenverfügbarkeit sowie für eine effektive Datensicherungsplattform zu schaffen.
Um hohe Datenverfügbarkeit zu bieten, muss ein Speichersystem auf einer Fehlertoleranz-Architektur aufgebaut sein. Das System muss so gestaltet sein,
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.