Mit Nubus für Kubernetes steht eine Open-Source-Lösung bereit, die Identitäts- und Zugriffsmanagement in Kubernetes-Umgebungen einfach und zentral macht. Wir erklären, wie Ihre Container mit Kubernetes sicher auf Kurs bleiben und zeigen, wer im Cluster eigentlich das Steuer in der Hand hat.
In der Welt moderner IT-Infrastrukturen hat Kubernetes längst das Ruder übernommen – vor allem dann, wenn Anwendungen nicht mehr auf einem einzelnen Server laufen, sondern in viele kleine Container zerlegt sind. Doch wer steuert all diese Container über die rauen Gewässer von Cloud und Rechenzentrum? Die Antwort: Kubernetes.
In diesem Artikel nehmen wir Sie mit an Bord und zeigen, wie Kubernetes als Steuermann Ihrer Container-Flotte funktioniert, welche Rollen es im Cluster gibt und wie das System Ordnung in komplexe Umgebungen bringt. Im zweiten Teil dieser kleinen Serie lassen wir dann ein echtes Beispiel vom Stapel laufen: Nubus für Kubernetes, unsere Lösung für zentrales Identity & Access Management im Cluster.
Inhaltsverzeichnis
Kubernetes verstehen – der Steuermann für Ihre Container-Infrastruktur
Kubernetes – gerne auch K8s genannt – ist eine Open-Source-Plattform zur Orchestrierung von Containern. Der Name stammt übrigens aus dem Griechischen und bedeutet so viel wie Steuermann oder Lotse. Und genauso versteht sich Kubernetes auch – als System, das Ihre Container-Anwendungen sicher durch komplexe Infrastrukturen navigiert.
Die Kurzform K8s ergibt sich übrigens aus den acht Buchstaben zwischen dem „K“ und dem „s“ – ein sogenanntes Numeronym, ähnlich wie bei i18n für Internationalisierung. Entwickelt wurde Kubernetes ursprünglich bei Google, heute wird es von der Cloud Native Computing Foundation (CNCF) weiterentwickelt und weltweit in unzähligen Rechenzentren eingesetzt.
Alles in einem Boot – was Container eigentlich sind
Bevor Kubernetes ins Spiel kommt, lohnt sich ein kurzer Blick auf das Fundament: Container. Sie ähneln klassischen virtuellen Maschinen, sind aber deutlich schlanker. Container kapseln einzelne Prozesse von der restlichen Systemumgebung ab. Jeder Container bekommt sein eigenes Dateisystem, seine eigene Netzwerkschicht, seine eigene Umgebung – technisch geregelt über sogenannte Namespaces im Linux-Kernel.
Wenn ein Prozess im Container z. B. auf /etc zugreifen will, zeigt das System ihm nur die Inhalte, die innerhalb seines Containers sichtbar sind. Der Kernel übersetzt diesen Zugriff automatisch. Das sieht für den Container aus wie eine vollständige Maschine – ist aber deutlich ressourcenschonender als eine virtuelle Maschine mit eigenem Betriebssystemkern.
Gerade diese Leichtgewichtigkeit macht Container so attraktiv: Sie lassen sich schnell starten, einfach verteilen und problemlos kombinieren. So ist es völlig normal, für jeden einzelnen Dienst – etwa Webserver, Datenbank, Cache – einen eigenen Container zu betreiben. Und genau dafür braucht es dann eine Orchestrierung wie Kubernetes, um den Überblick zu behalten.
So hält Kubernetes Ihre Container auf Kurs
Natürlich lassen sich Container auch ohne Kubernetes betreiben. Für einzelne Anwendungen oder kleinere Setups genügt oft schon Docker oder Docker Compose. Ein paar Container starten, stoppen oder updaten – das geht zur Not noch von Hand oder per grafischem Tool. Aber was, wenn es nicht um fünf, sondern um 50 oder gar 5.000 Container geht?
Genau an diesem Punkt kommt die sogenannte Container-Orchestrierung ins Spiel. Hier zeigt Kubernetes seine Stärken: Die Software sorgt dafür, dass Ihre Anwendungen zuverlässig starten, überwacht werden und bei Bedarf automatisch neu verteilt oder skaliert werden – über viele Hosts hinweg und ohne dass Sie jeden Handgriff selbst erledigen müssen.
Egal, ob im Rechenzentrum oder in der Cloud: Kubernetes hilft Ihnen, Ihre Anwendungen hochverfügbar, ausfallsicher und flexibel zu betreiben – auch dann, wenn mal ein einzelner Knoten im Cluster ausfällt. Auch das Aktualisieren von Anwendungen läuft deutlich entspannter ab, weil Kubernetes dabei hilft, neue Versionen kontrolliert einzuführen und bei Problemen wieder zurückzurollen.
Ziel setzen, Kurs halten – wie Kubernetes wirklich steuert
Wenn Sie mit Kubernetes arbeiten, geben Sie keine klassischen Befehle wie „Starte Container X“ oder „Stopp Container Y“ ein. Stattdessen beschreiben Sie einen gewünschten Zielzustand, etwa: „Diese Anwendung soll in drei Instanzen laufen, erreichbar unter dieser Adresse, abgesichert mit einem Zertifikat.“ Kubernetes kümmert sich dann automatisch darum, diesen Zustand herzustellen – und auch dauerhaft aufrechtzuerhalten. Möglich macht das eine leistungsfähige API, über die Sie alle Komponenten im Cluster konfigurieren. Sie steuern also nicht direkt, sondern geben das Ziel vor – den Weg findet das System selbst.
Der Kubernetes-Cluster ist das Herzstück der Plattform und besteht aus zwei zentralen Komponenten: der Control Plane und den Compute Nodes. Die Control Plane behält den Überblick, kennt den gewünschten Zielzustand – etwa wie viele Instanzen einer Anwendung laufen sollen – und sorgt dafür, dass das System genau dorthin navigiert.
Die eigentliche Arbeit – also das Ausführen Ihrer Anwendungen – übernehmen die Compute Nodes. Das sind physische oder virtuelle Maschinen, auf denen Kubernetes Ihre Container in sogenannten Pods startet. Die Nodes führen aus, was die Control Plane vorgibt. So bleibt die Architektur sauber getrennt: oben wird gesteuert, unten gearbeitet – beides perfekt aufeinander abgestimmt.
Diese klare Trennung zwischen Steuerungsebene und Workload – also dem tatsächlichen Ausführen von Anwendungen – macht Kubernetes besonders robust und gut skalierbar.
Crew an Bord – Rollen und Begriffe einfach erklärt
Damit Kubernetes im Alltag reibungslos funktioniert, braucht es klare Zuständigkeiten. In der Praxis haben sich drei Rollen etabliert, die sich gut voneinander abgrenzen lassen – nicht nur organisatorisch, sondern auch technisch:
- Kubernetes-Administrator*innen kümmern sich um das große Ganze – also um den Cluster selbst. Dazu gehören die Bereitstellung der Hardware oder virtuellen Maschinen, Netzwerkkonfigurationen, Speicherverwaltung, Load Balancer und die Vergabe von Zugriffsrechten. Sie legen fest, wer Zugriff auf welche Ressourcen hat, und stellen sicher, dass das Cluster stabil läuft.
- Technische Betreiber*innen (Operators) – häufig aus DevOps-Teams – arbeiten auf dieser Infrastruktur. Sie deployen Anwendungen, skalieren sie bei Bedarf oder überwachen ihren Zustand. Der Zugriff erfolgt direkt über die Kubernetes-API oder den Paketmanager Helm.
- Systemadministrator*innen kümmern sich um die konkrete Applikation, konfigurieren diese und verwalten Benutzeraccounts – meist direkt über die Weboberfläche der jeweiligen Software. Sie müssen nicht wissen, wie Kubernetes funktioniert, um mit der Anwendung zu arbeiten.
Wegweiser im Cluster – Begriffe, die Sie kennen sollten
Damit Sie im Kubernetes-Kosmos nicht den Überblick verlieren, hier noch drei Begriffe, die Ihnen immer wieder begegnen werden:
- Pod: Die kleinste deploybare Einheit in Kubernetes. Ein Pod enthält meist genau einen Container – etwa einen Webserver oder eine Datenbank. Manchmal laufen dort auch sogenannte Sidecar-Container mit, zum Beispiel für Protokollierung oder Initialisierung. Alle Container in einem Pod teilen sich Speicher und Netzwerk.
- Namespace: Eine logische Abgrenzung innerhalb des Clusters, um Ressourcen sauber voneinander zu trennen – etwa für verschiedene Teams oder Umgebungen wie Entwicklung, Test und Produktion.
- Ingress: Eine Art Einfallstor von außen. Container im Cluster sind von außen erstmal nicht erreichbar – das ist so gewollt. Über einen Ingress regeln Sie, welche Anwendungen nach außen freigegeben werden. Der Ingress-Controller übernimmt dabei die Rolle eines Reverse Proxys, oft auf Basis von Nginx. Er leitet Anfragen an die passenden Dienste im Inneren des Clusters weiter – inklusive Domain, Pfad und TLS-Verschlüsselung.
Kurs gesetzt – und wie geht’s weiter?
Mit Kubernetes behalten Sie auch in komplexen IT-Infrastrukturen den Überblick. Die Plattform nimmt Ihnen viele wiederkehrende Aufgaben ab, sorgt für Stabilität im Betrieb und schafft die Grundlage für eine moderne, flexible Container-Welt.
TIPP: Für noch mehr technische Tiefe lohnt sich ein Blick ins offizielle Kubernetes-Handbuch.
Im nächsten Artikel zeigen wir Ihnen, wie Sie Kubernetes ganz einfach lokal auf Ihrem Notebook ausprobieren – inklusive Schritt-für-Schritt-Anleitung zur Installation von Nubus für Kubernetes, unserer Lösung für zentrales Identity & Access Management im Cluster.
Neugierig geworden? Dann werfen Sie schon mal Docker und kind an – wir legen im nächsten Artikel los.