Blaupausen für das Monitoring von verteilten Systemen gibt es leider nicht. Grundsätzlich gilt, dass der IT-Verantwortliche das Monitoring möglichst nahe bei den zu überwachenden Systemen hosten sollte. Eine schnelle und einfache Übertragung der auf den überwachten Systemen erfassten Daten zur eingesetzten Überwachungssoftware ist die Voraussetzung für die rasche Erkennung von Problemen. Allerdings wäre es zu aufwendig, für jedes einzelne lokale Netzwerk ein unabhängiges Monitoring zu betreiben.
Das verteilte Monitoring bezieht sich nicht auf die Standorte der überwachten Systeme, sondern auf die Lastverteilung des Monitorings auf mehrere Monitoringumgebungen. Dabei entsteht aus mehreren lokalen sowie cloudbasierten Monitoringinstanzen eine zusammenhängende Umgebung, die sich zentral verwalten lässt.
Unser Bild zeigt die grundlegende Idee: Die Workloads des Monitorings verteilen sich auf mehrere Remote-Instanzen. Jede davon überwacht die Systeme in ihrem lokalen Netzwerk oder in der Cloud. Anschließend übertragen die verteilten Instanzen die benötigten Live-Daten aller überwachten Systeme zu einem zentralen Punkt. Das Monitoringteam kann alle Prozesse über diese Zentralinstanz steuern und Konfigurationen automatisch an die einzelnen Remote-Instanzen vererben.
Außerdem lassen sich auf Wunsch auch einzelne Instanzen manuell anpassen oder Zugangsrechte in gewünschtem Umfang für andere Teams wie lokale Mitarbeiter einräumen. Zudem kann die Alarmierung von verschiedenen Mitarbeitern remote oder zentral erfolgen.
Schon dieses vereinfachte Schema macht deutlich, dass es um mehr als nur Loadbalancing geht. Die lokale Verarbeitung der Monitoringdaten schont beispielsweise auch die Netzwerke, da die Übertragung der Live-Daten weniger Bandbreite beansprucht. Es ist wichtig, dass eine Überwachungsanwendung passende Features
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.