Ursprünglich wollten wir für diesen Workshop die nagelneue Version 17 von Ceph verwenden. Die wurde jedoch leider nicht mehr vor dem Redaktionsschluss fertig, weswegen die beschriebene Testumgebung auf dem Release "Pacific" in der Version 16.2.7 auf Fedora 35 arbeitet. Für funktionale Tests mit Ceph genügt bereits ein Single-Node-Setup. Die hier beschriebene Testumgebung setzt zwei Knoten ein – eigentlich nur um einige der verteilten Funktionen und Aufgaben vorzustellen. Der erste Knoten arbeitet als VM ohne Datenplatten, am zweiten Knoten hängen drei 500-GByte-Festplatten als OSDs. Auf dem ersten Knoten installieren Sie die benötigten Abhängigkeiten wie Podman und die Ceph-Tools:
dnf install catatonit podman ceph-common cephadm ceph-base
Bei "catatonit" handelt es sich um einen simplen Init-Dienst für Container. Dessen seltsamer Name erklärt sich aus seiner Beschreibung: "A container init that is so simple it's effectively brain-dead".
Jetzt geht es daran, den neuen Cluster zu initialisieren. Bei Ceph so wie bei allen anderen IP-basierten Speicherdiensten sollten Sie für die Konfiguration immer IP-Adressen und keine Domainnamen verwenden. Anderenfalls könnte ein simples Problem mit der DNS-Auflösung zum Ausfall des Speichersystems führen. Setzen Sie bei Ceph-Knoten als "hostname" immer den kurzen Namen ohne Domain ein, das macht das Setup übersichtlicher. Ceph benennt seine Dienste nach dem Hostnamen und da klingt "mds1.node1.123456" einfach besser als "md1.node1.ceph.abteilung.gebaeude.firma.netzwerk.123456".
Für das simple Testsetup arbeiten wir mit nur einem Netzwerk. Größere Setups setzen ein separates Cluster-Netzwerk ein, um den Ceph-internen Traffic zu isolieren. Das Setup des Manager-Knotens erfolgt mit:
cephadm bootstrap --mon-ip <IP-Adresse des Manager Knotens>
Dieses Kommando erzeugt eine simple
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.