Das zweitägige Seminar vermittelt den zielgerichteten Einsatz von Knative Serving für skalierbare Services auf Kubernetes. Schwerpunkte sind Revisionsmodell, automatisierte Skalierung, Routing, Traffic-Steuerung und die Einbindung in bestehende Netzwerk- und Delivery-Prozesse.
Seminarziele
Erarbeitet wird ein sicheres Verständnis dafür, wie Knative Serving Services versioniert, ausliefert, skaliert und kontrolliert in produktionsnahe Prozesse integriert.
Zielgruppe
Das Seminar richtet sich an Rollen, die API-, Web- oder Backend-Services auf Knative entwickeln, bereitstellen oder architektonisch verantworten.
Voraussetzungen
Hilfreich sind praktische Erfahrung mit Kubernetes-Deployments, Containern, Service-Routing und grundlegenden CI/CD-Abläufen.
Inhalte
- Architektur und Objektmodell von Knative Serving.
- Knative Service, Configuration, Route und Revision im Zusammenspiel.
- Lebenszyklus von Revisionen und kontrollierte Service-Änderungen.
- Traffic Splitting, Rollout-Strategien und Versionssteuerung.
- Automatische Skalierung inklusive Scale-to-Zero und Bounds.
- Request-Flow, Aktivierung in Lastspitzen und betriebliche Auswirkungen.
- Unterstützte Networking-Layer und deren Einbindung in die Plattform.
- Domains, Erreichbarkeit, TLS und Integrationspunkte zu Ingress-Strukturen.
- Standardmuster für CI/CD-nahe Bereitstellung auf Knative Serving.
- Fehlerbilder und Diagnose typischer Serving-Probleme.
Praxis
- Deployment eines Knative Service mit mehreren Revisionen.
- Gezielte Traffic-Aufteilung zwischen Revisionen.
- Beobachtung von Skalierungsverhalten unter Last und in Leerlaufphasen.
- Einordnung der Netzwerkanbindung im eigenen Plattformkontext.
- Ableitung standardisierter Delivery-Muster für Teams.
