Wer sehr viele Daten über einen langen Zeitraum speichern muss, steht vor einem Problem: Die Bauart vieler kommerzieller Storage-Systeme lässt zum einen keine beliebigen Kapazitätserweiterungen zu. Zudem laufen diese irgendwann aus der Wartung und der Anwender muss nicht nur ein neues Storage anschaffen, sondern auch die bestehenden Daten aus dem alten migrieren. Hier hilft ein Software-defined Scale-out-Storage wie Ceph gleich mehrfach. Als Speicherknoten dienen reguläre Server mit Platten wie auch SSDs.
Dabei spielt es keine Rolle, wenn unterschiedliche Server zum Einsatz kommen. Das betrifft sowohl die Ausstattung wie CPU oder Arbeitsspeicher als auch die Anzahl oder den Typ der Platten. Zudem benötigt Ceph keine Downtime für Umbau, Updates oder sonstige Änderungen. Der Administrator kann im laufenden Betrieb einfach neue Speicherknoten nachrüsten und alte entfernen. Der Zugriff zu den Daten erfolgt zudem nicht durch den Flaschenhals eines zentralen Kontrollknotens. In Teil 1 erfahren Sie, wie Ceph funktioniert und in Teil 2 des Workshops bauen wir einen Ceph-Cluster auf.
Ceph ist ein verteilter Objektspeicher, der seine Kerntechnik als "Rados" (Reliable Autonomic Distributed Object Store) bezeichnet. Das Speichersystem zerlegt ankommende Objekte in Blöcke, die es mit der passenden Redundanz dann auf den Cluster-Knoten und Platten verteilt. Die Verteilung der Objekte erfolgt dabei "pseudozufällig". Das bedeutet, Ceph verteilt die Daten so gleichmäßig wie möglich, folgt dabei aber einem Algorithmus.
Im Unterschied zu anderen Speichersystemen gibt es bei Ceph nämlich keinen Kontrollknoten, der die Verteilung koordiniert und über den die Kommunikation mit den Clients stattfindet. Vielmehr übermittelt Ceph seinen angebundenen Clientsystemen den aktuellen Algorithmus, sodass diese für Lese- und Schreiboperationen direkt auf die betroffenen Knoten zugreifen. Damit gibt es keinen Flaschenhals und auch keinen
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.