Die Apache Software Foundation steht im Umfeld verteilter Datenverarbeitung für robuste, offene und breit einsetzbare Plattformtechnologien. Apache Spark bildet innerhalb dieses Umfelds die zentrale Achse für verteilte Batch-Verarbeitung, Spark SQL, Streaming und produktionsnahe Datenpipelines.
Seminarportfolio
Das Portfolio deckt drei typische Bedarfsfälle ab: strategische Einordnung, schneller Praxiseinstieg und vertiefte technische Umsetzung. Dadurch lässt sich Apache Spark entweder schrittweise oder in einem durchgehenden Intensivformat aufbauen.
Empfohlene Reihenfolge
- Apache Spark Überblick für Entscheider und Architekten als fachliche Einordnung und saubere Klärung von Architektur, Rollen und Einsatzgrenzen.
- Apache Spark Kompaktseminar für den schnellen Praxiseinstieg als erster technischer Zugang mit DataFrames, Spark SQL und einfachen Jobs.
- Apache Spark Datenanalyse mit PySpark und SQL für den systematischen Ausbau in Richtung produktiver Datenverarbeitung.
- Apache Spark Streaming, Tuning und produktiver Betrieb für Echtzeitverarbeitung, Stabilität, Performance und sauberen Betrieb.
Das Apache Spark Intensivseminar: Entwicklung, Streaming und Betrieb ist die Alternative für alle, die nicht modular vorgehen möchten, sondern den Gesamtstoff in einem geschlossenen Fünf-Tage-Format benötigen.
Seminarauswahl
Seminare zu diesem Hersteller
Seminarorte:
- Berlin,
- Bremen,
- Darmstadt,
- Dresden,
- Erfurt,
- Essen,
- Flensburg,
- Frankfurt,
- Freiburg,
- Friedrichshafen,
- Hamburg,
- Hamm,
- Hannover,
- Jena,
- Kassel,
- Köln,
- Konstanz,
- Leipzig,
- Luxembourg,
- Magdeburg,
- Mainz,
- München,
- Münster,
- Nürnberg,
- Paderborn,
- Potsdam,
- Regensburg,
- Rostock,
- Stuttgart,
- Trier,
- Ulm,
- Wuppertal,
- Würzburg
Durchführungsgarantie für jedes Training:
ja, ab 2 Teilnehmern
Öffentlich, Webinar, Inhaus, Workshop:
ja, sehr gerne
Unterlage im Seminar:
ja, auf Datenträger oder Download
Zertifikat für Ihre Teilnahme am Training:
ja, selbstverständlich
