Kubernetes absichern - Geschützte Umgebung

Lesezeit
4 Minuten
Bis jetzt gelesen

Kubernetes absichern - Geschützte Umgebung

05.02.2019 - 12:00
Veröffentlicht in:

2019 wird Kubernetes fünf Jahre alt und es wird immer häufiger für Container-basierte Clouddienste von Unternehmen eingesetzt. Nicht nur in großen Umgebungen wie AWS, Azure oder Open Shift, sondern auch in kleinen Umgebungen kommt Kubernetes innerhalb von Unternehmens-Netzwerken zum Einsatz. Unser Security-Tipp beleuchtet die Absicherung von Kubernetes-Installationen.

Die Entwicklung von Kubernetes als Open-Source-Ökosystem für Container-Anwendungen hat 2014 bei Google begonnen. Aufgrund der Erfolgsaussichten für ein solches System wurde es 2015 von Google als Basistechnologie an die Cloud Native Computing Foundation gespendet, einer Organisation unter dem Dach der Linux Foundation, die in demselben Jahr gegründet wurde, um natives Cloud-Computing zu standardisieren. Gründungsmitglieder sind unter anderem die Branchengrößen Google, Red Hat, Twitter, IBM, Docker und VMware.

Kubernetes ist ein modulares Master-Slave-System, das grundsätzlich über das Netzwerk beziehungsweise Netzwerk-Sockets kommuniziert. Der Kubernetes Master orchestriert dabei den gesamten Cluster, konfiguriert und verwaltet die einzelnen Nodes, übernimmt die Zuteilung von Prozessen auf diese Nodes und bietet eine Schnittstelle zur Administration. Auf den einzelnen Nodes läuft ein Prozess, der sogenannte Kubelet, der vom Master kontrolliert wird und die Container auf dem Node startet, stoppt und überwacht. Der zur Lastverteilung gedachte Kube-Proxy läuft ebenfalls auf jedem Node und ist für die Weiterleitung von Verbindungen zum konfigurierten Dienst verantwortlich. Die Container werden in sogenannten Pods organisiert, ein Pod enthält also einen oder mehrere Container, die auf gemeinsame Ressourcen wie Speicher oder Netzwerk zugreifen können. Pods sind damit vergleichbar mit einem physischen Rechner, auf dem mehrere Prozesse ausgeführt werden. Das bedeutet etwa, dass alle Container innerhalb eines Pods die IP-Adresse teilen und über localhost erreichbar sind.

Netzwerk- und Host-Sicherheit

Insbesondere die Netzwerk-Sicherheit sollte bei Kubernetes also, auch wenn Sie es nur mal testen möchten, von Beginn an berücksichtigt werden. Sowohl der Master als auch die einzelnen Nodes benötigen einige TCP-Ports für die Kommunikation untereinander. Auf dem Master läuft der API Server, der die gesamte Cluster-Administration ermöglicht. Jeder Node bietet ein API für den Master zur vollen Kontrolle des Nodes sowie insgesamt drei Status-Dienste: jeweils einen für den Node selbst und die Container und einen weiteren für den Kube-Proxy.

Natürlich ist ein Kubernetes-Cluster selbst nur so sicher, wie das darunter liegende System. Daher ist es wichtig, dass Sie sich mit der Distribution, die Sie einsetzen, gut auskennen und diese auch entsprechend absichern. Gängige Maßnahmen sind regelmäßige, möglichst automatische Updates, SELinux, Festplattenverschlüsselung und regelmäßige Überprüfung mit einem Schwachstellenscanner. Für die meisten Distributionen gibt es entsprechende Dokumente, das von Debian finden Sie etwa unter [1]. Ein Zugang zum Kubernetes-Master über das Internet lässt sich immer über SSH absichern, möglichst über einen demilitarisierten Jump-Host.

Bestenfalls konfigurieren Sie Ihren Kubernetes-Cluster in einem internen IP-Adressbereich. Das muss natürlich in der Netzwerkumgebung möglich sein. Innerhalb eines Unternehmensnetzwerks lässt sich das zumeist einfach realisieren, bei AWS können Sie dafür beispielsweise die Virtual Private Cloud (VPC) nutzen. Ein Problem entsteht bei der Nutzung von Docker hinter einem Proxyserver. Diesen benötigen Sie aber natürlich, wenn Sie einen internen IP-Adressbereich für Ihren Kubernetes-Cluster verwenden. Um für einen Dienst Ihres Systems entsprechende Umgebungsvariablen wie "http_proxy" zu konfigurieren, müssen Sie diese in der Konfiguration des Dienstes hinterlegen. Unter Ubuntu geht dies beispielsweise über Dateien im Ordner "/etc/systemd/system/docker.service.d", den Sie anlegen müssen, falls dieser noch nicht existiert. Innerhalb des Ordners legen Sie nun eine Datei mit dem Namen "http-proxy.conf" an und tragen folgenden Inhalt ein:

[Service]
Environment=HTTP_PROXY=http://[proxy_ip]:[port]
Environment=HTTPS_PROXY=http://[proxy_ip]:[port]/
Environment=FTP_PROXY=http://[proxy_ip]:[port]/
Environment=NO_PROXY=localhost,127.0.0.0/8,[master_ip]

Ersetzen Sie die Werte in Klammern entsprechend. Anschließend müssen Sie den Daemon neu starten. Vorher informieren Sie noch systemd darüber, dass Sie an der Dienstekonfiguration etwas geändert haben:

$ sudo systemctl daemon-reload
$ sudo systemctl restart docker

Nun baut Docker Verbindungen über den Proxy auf und kann auch problemlos Container aus dem Internet herunterladen und ausführen.

Cluster überprüfen mit kube-bench

Das Werkzeug kube-bench [2] läuft selbst in einem Container und kann direkt in Ihrem Kubernetes-Cluster verwendet werden. Es eignet sich dazu, die Konfiguration Ihres Cluster zu überprüfen, und macht Sie anschließend auf mögliche (Sicherheits-)Probleme aufmerksam. Nach der Netzwerk-Absicherung sollte kube-bench als zweiter Schritt vor der Inbetriebnahme Ihres Clusters stehen. So finden Sie die Fehler vor einem möglichen Angreifer. Vor allem dann, wenn Sie aus unterschiedlichen Gründen keine internen IP-Adressen verwenden können, lässt sich Ihr System sonst fast unmittelbar nach der Installation bereits über Suchmaschinen wie Shodan [3] aufspüren. Das Bild zeigt Ihnen, wie leicht es ist, solche Installationen aufzuspüren, und gibt einen guten Überblick, bei welchen Providern offenbar häufig Kubernetes installiert wird.

 Mit Shodan lassen sich ungeschützte Kubernetes-Installationen leicht aufspüren.
 Mit Shodan lassen sich ungeschützte Kubernetes-Installationen leicht aufspüren.

Netzwerkrichtlinien festlegen

Die Verbindung des Clusters zum Internet ist die eine Seite der Netzwerk-Sicherheit für Kubernetes. Tatsächlich sollte natürlich auch der Zugang von und zu den einzelnen Pods entsprechend konfiguriert werden. Dafür bietet Kubernetes die Definition von "NetworkPolicies". Dort können Sie für eingehende und ausgehende Verbindungen entsprechende Regeln konfigurieren, die wie ein Paketfilter funktionieren. In der Standardeinstellung ist jegliche Netzwerkverbindung in beide Richtungen erlaubt. Wenn Sie dies nicht möchten, können Sie eine neue Standard-Regel wie in Listing 1 erstellen, die zunächst jeden eingehenden Verkehr für Pods unterbindet.

Listing 1: default.yaml



apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
      name: default-deny
spec:
      podSelector: {}
      policyTypes:
      - Ingress

Das Ganze können Sie mit folgendem Befehl in Ihren Cluster übernehmen:

$ kubectl create -f default.yaml

Wollen Sie nun für Pods mit dem Label "dmz" wieder beliebigen eingehenden Verkehr erlauben, dann können Sie dies mit der Policy in Listing 2 erreichen, anschließend nutzen Sie denselben Befehl für die Übernahme in Kubernetes.

Listing 2: dmz.yml



apiVersion: networking.k8s.io/v1
kind: NetworkPolicy
metadata:
      name: allow-dmz
spec:
      podSelector:
                matchLabels:
                                    run: dmz
      ingress:
      - {}

Mit Hilfe der NetworkPolicies und entsprechender Labels können Sie also die Verbindungen Ihrer Pods sehr detailliert steuern. Natürlich können Sie Pods auch individuell auswählen, allerdings ist eine Verwaltung der Labels gerade bei vielen Pods deutlich einfacher.

Fazit

Kubernetes bietet den Benutzern eine native Cloud. Als Betreiber sollten Sie aber darauf achten, dass Sie diese Umgebung ordentlich absichern. Dieser Security-Tipp gibt Ihnen zwar keinen umfassenden Ratgeber über die vielen Konfigurationsmöglichkeiten, bietet aber einen guten Start zum sicheren Ausprobieren von Kubernetes. Ausgehend von den gezeigten Konzepten können Sie sich nach und nach an eine sichere Konfiguration herantasten, die sich an Ihren Ansprüchen und Ihrer Infrastruktur orientiert.

(dr)

 

Ähnliche Beiträge

Tools für die Azure-Kostenkalkulation (2)

Den Überblick über die Kosten in Azure zu behalten, ist eine Herausforderung. Denn die Preise der verschiedenen Cloudfunktionen sind vielschichtig und schnell wird es unübersichtlich für den Admin. Microsoft bietet verschiedene Möglichkeiten, die Kosten im Blick zu behalten. Im zweiten Teil der Workshops geht es vor allem darum, wie Sie Tags sinnvoll einsetzen und mit Budgets arbeiten.

Tools für die Azure-Kostenkalkulation (1)

Den Überblick über die Kosten in Azure zu behalten, ist eine Herausforderung. Denn die Preise der verschiedenen Cloudfunktionen sind vielschichtig und schnell wird es unübersichtlich für den Admin. Microsoft bietet verschiedene Möglichkeiten, die Kosten im Blick zu behalten. Im ersten Teil der Workshopserie schauen wir uns die einzelnen Elemente des Abrechnungsmanagements und zeigen, wie Sie diese gesammelt auf den Bildschirm bringen.

KI-Infrastrukuren aus der Cloud

Kein IT-Verantwortlicher kommt aktuell um die Frage herum, wie und ob das Unternehmen auf den KI-Zug aufspringen kann. Gegenwärtig konzentriert sich die Fähigkeit, selbst KI-Anwendungen auf die Beine zu stellen, auf Konzerne, Forschungsinstitute und üppig finanzierte Startups, da eine entsprechende Infrastruktur sehr teuer ist. Mit KI-Clouds kommt ein Gegentrend auf. Unser Fachartikel erklärt, was es mit diesen Angeboten auf sich hat.