Apache Iceberg Streaming, CDC und Kafka Connect
Streaming mit Iceberg verlangt mehr als nur einen laufenden Connector. Zwei Tage sind für dieses Seminar notwendig, weil CDC-Semantik, Exactly-Once-Fragen, Tabellenlayout und Betriebsfolgen gemeinsam betrachtet werden müssen. Wer nur Konfigurationsdateien kopiert, baut sich sehr schnell eine zuverlässige Fehlerquelle.
Zielsetzung
Das Seminar vermittelt, wie Ereignis- und Änderungsdaten sauber in Iceberg-Tabellen landen, wie Streaming- und Batch-Welten zusammenspielen und welche Entscheidungen für Modellierung, Partitionierung und Betrieb in eventlastigen Plattformen wirklich zählen.
Inhalte
- Streaming-Anwendungsfälle und CDC-Muster mit Apache Iceberg
- Kafka Connect Sink und typische Konfigurationsbausteine
- Exactly-Once-Überlegungen, Idempotenz und Commit-Koordination
- Flink- und Spark-Streaming-Sicht auf Iceberg
- Event-Modellierung, Partitionierungsstrategien und Dateiverhalten
- Umgang mit Spätankömmlingen, Replays und Änderungsereignissen
- Qualitätssicherung, Monitoring und Fehlerbilder in CDC-Pipelines
- Grenzen des Formats und sinnvolle Einsatzentscheidungen
Praxis
Im Seminar werden exemplarische Sink-Konfigurationen entworfen, Ereignismodelle bewertet und Betriebsfragen für Replay, Nachverarbeitung und Tabellenlayout konkret bearbeitet. So entsteht ein realistisches Bild dessen, was mit Iceberg im Streaming-Alltag robust funktioniert und was ohne klare Regeln rasch entgleist.
Zielgruppe
Geeignet ist dieses Format für Streaming- und Integrationsrollen, für Data Engineers mit CDC-Verantwortung sowie für Plattformteams, die Event-Daten in eine gemeinsame Lakehouse-Struktur einbinden wollen.
Seminardetails
| Dauer: | 2 Tage ca. 6 h/Tag, Beginn 1. Tag: 10:00 Uhr, weiterer Tag 09:00 Uhr |
| Preis: |
Öffentlich oder Live Stream: € 1.198 zzgl. MwSt. Inhaus: € 3.400 zzgl. MwSt. |
| Teilnehmeranzahl: | min. 2 - max. 8 |
| Teilnehmer: | Data Engineers, Streaming-Teams, Integrationsspezialisten, Plattformteams mit Event- und CDC-Verantwortung |
| Voraussetzungen: | Grundkenntnisse in Kafka oder Streaming-Konzepten sowie SQL und ein Basisverständnis von Apache Iceberg |
| Standorte: | Stream Live, Inhaus/Firmenseminar, Berlin, Bremen, Darmstadt, Dresden, Erfurt, Essen, Flensburg, Frankfurt, Freiburg, Friedrichshafen, Hamburg, Hamm, Hannover, Jena, Kassel, Köln, Konstanz, Leipzig, Luxemburg, Magdeburg, Mainz, München, Münster, Nürnberg, Paderborn, Potsdam, Regensburg, Rostock, Stuttgart, Trier, Ulm, Wuppertal, Würzburg |
| Methoden: | Vortrag, Demonstrationen, praktische Übungen zu Sink-Konfiguration und Event-Modellierung |
| Seminararten: | Öffentlich, Webinar, Inhouse, Workshop - Alle Seminare mit Trainer vor Ort, Webinar nur wenn ausdrücklich gewünscht |
| Durchführungsgarantie: | ja, ab 2 Teilnehmern |
| Sprache: | Deutsch - bei Firmenseminaren ist auch Englisch möglich |
| Seminarunterlage: | Dokumentation als Download oder auf Datenträger |
| Teilnahmezertifikat: | ja, selbstverständlich |
| Verpflegung: | Kalt- / Warmgetränke, Mittagessen (wahlweise vegetarisch) |
| Support: | 3 Anrufe im Seminarpreis enthalten |
| Barrierefreier Zugang: | an den meisten Standorten verfügbar |
| Weitere Informationen unter + 49 (221) 74740055 |
Seminartermine
Die Ergebnissliste kann durch Anklicken der Überschrift neu sortiert werden.
