Seminar GPU-Algorithmik & Parallel Patterns: Map/Reduce/Scan, Stencils, Histograms

Seminar / Training GPU-Algorithmik & Parallel Patterns: Map/Reduce/Scan, Stencils, Histograms

Inhaltsverzeichnis

  • Abstract
  • Zielgruppe und Voraussetzungen
  • Lernziele
  • Inhalte und Module
  • Praxisübungen
  • Agenda

Abstract

Dieses Seminar behandelt GPU-Algorithmik unabhängig von einer konkreten API und übersetzt klassische Parallel-Patterns in GPU-taugliche Implementierungen. Inhalte sind Map/Reduce/Scan, Histogramme, Sortier- und Partitionierungsansätze, Stencil-Operatoren und Tiling-Strategien. Die Muster werden sowohl konzeptionell als auch in Code-Übungen erarbeitet und anschließend in CUDA oder OpenCL umgesetzt. Ergebnis ist eine belastbare Methodik zur Entwicklung performanter Kernel für neue Problemstellungen.

Zielgruppe und Voraussetzungen

  • Zielgruppe: Entwicklung von numerischen, datenintensiven oder bild-/signalverarbeitenden Anwendungen
  • Voraussetzungen: Grundkenntnisse in CUDA oder OpenCL, plus Basisverständnis Speicherhierarchie. Empfehlenswert: GPU-Computing Grundlagen: Architektur, Parallelität, Speicherhierarchie + (CUDA Programmierung Grundlagen: Kernels, Memory, Toolchain oder OpenCL Programmierung Grundlagen: Plattformmodell, Kernels, Runtime)

Lernziele

  • Probleme als Parallel-Patterns formulieren
  • Work-Efficiency vs Parallelism korrekt abwägen
  • Reduktionen und Scans ohne Skalierungsfallen entwerfen
  • Speicher- und Synchronisationskosten in Algorithmen berücksichtigen

Inhalte und Module

  • Pattern-Überblick: Map, Gather/Scatter, Reduce, Scan, Sort/Partition
  • Work-Efficiency: serieller Anteil, Synchronisationskomplexität, Atomics vs Privatization
  • Tiling und Datenlokalität: Shared/Local Memory als Algorithmusbestandteil
  • Stencils und Nachbarschaften: Halo-Handling, Boundaries, Mehrstufenpipelines
  • Histogramme: Konflikte, Privatization, Merging-Strategien
  • Numerische Aspekte: Stabilität, Determinismus, Reproduzierbarkeit (Einordnung)
  • API-Abbildung: Pattern → Kernelstruktur (CUDA/OpenCL)

Praxisübungen

  • Parallel Reduction: naive → blockweise → hierarchisch
  • Prefix Sum (Scan) in vereinfachter Form
  • Histogramm-Varianten: atomar vs privatisiert
  • Stencil mit Tiling und Boundary-Handling
  • Mini-Designreview: Patternwahl, Datenlayout, Synchronisation

Agenda

  • Tag 1
    • Pattern-Framework und Reduktionen
    • Scan-Grundlagen und Anwendungsfälle
    • Übungen: Reduction + Scan light
  • Tag 2
    • Histogramme und Konfliktstrategien
    • Stencils, Tiling, Boundaries
    • Übungen: Histogramm + Stencil Tiling

Fachbereichsleiter / Leiter der Trainer / Ihre Ansprechpartner

Seminar und Anbieter vergleichen

Öffentliche Schulung

Diese Seminarform ist auch als Präsenzseminar bekannt und bedeutet, dass Sie in unseren Räumlichkeiten von einem Trainer vor Ort geschult werden. Jeder Teilnehmer hat einen Arbeitsplatz mit virtueller Schulungsumgebung. Öffentliche Seminare werden in deutscher Sprache durchgeführt, die Unterlagen sind teilweise in Englisch.

Mehr dazu...

Inhausschulung

Diese Seminarform bietet sich für Unternehmen an, welche gleichzeitig mehrere Teilnehmer gleichzeitig schulen möchten. Der Trainer kommt zu Ihnen ins Haus und unterrichtet in Ihren Räumlichkeiten. Diese Seminare können auf Deutsch – bei Firmenseminaren ist auch Englisch möglich – gebucht werden.

Mehr dazu...

Webinar

Diese Art der Schulung ist geeignet, wenn Sie die Präsenz eines Trainers nicht benötigen, nicht reisen können und über das Internet an einer Schulung teilnehmen möchten.

Mehr dazu...

Fachbereichsleiter / Leiter der Trainer / Ihre Ansprechpartner

Seminardetails

   
Dauer: 2 Tage ca. 6 h/Tag, Beginn 1. Tag: 10:00 Uhr, weitere Tage 09:00 Uhr
Preis: Öffentlich oder Live Stream: € 1.198 zzgl. MwSt.
Inhaus: € 3.400 zzgl. MwSt.
Teilnehmeranzahl: min. 2 - max. 8
Teilnehmer: Entwicklung von numerischen, datenintensiven oder bild-/signalverarbeitenden Anwendungen
Vorausetzung: Grundkenntnisse in CUDA oder OpenCL, plus Basisverständnis Speicherhierarchie. Empfehlenswert: GPU-Computing Grundlagen: Architektur, Parallelität, Speicherhierarchie + (CUDA Programmierung Grundlagen: Kernels, Memory, Toolchain oder OpenCL Programmierung Grundlagen: Plattformmodell, Kernels, Runtime)
Standorte: Stream Live, Inhaus/Firmenseminar, Berlin, Bremen, Darmstadt, Dresden, Erfurt, Essen, Flensburg, Frankfurt, Freiburg, Friedrichshafen, Hamburg, Hamm, Hannover, Jena, Kassel, Köln, Konstanz, Leipzig, Luxemburg, Magdeburg, Mainz, München, Münster, Nürnberg, Paderborn, Potsdam, Regensburg, Rostock, Stuttgart, Trier, Ulm, Wuppertal, Würzburg
Methoden: Vortrag, Demonstrationen, praktische Übungen am System
Seminararten: Öffentlich, Webinar, Inhaus, Workshop - Alle Seminare mit Trainer vor Ort, Webinar nur wenn ausdrücklich gewünscht
Durchführungsgarantie: ja, ab 2 Teilnehmern
Sprache: Deutsch - bei Firmenseminaren ist auch Englisch möglich
Seminarunterlage: Dokumentation auf Datenträger oder als Download
Teilnahmezertifikat: ja, selbstverständlich
Verpflegung: Kalt- / Warmgetränke, Mittagessen (wahlweise vegetarisch)
Support: 3 Anrufe im Seminarpreis enthalten
Barrierefreier Zugang: an den meisten Standorten verfügbar
  Weitere Informationen unter + 49 (221) 74740055

Seminartermine

Die Ergebnissliste kann durch Anklicken der Überschrift neu sortiert werden.

Seminar Startdatum Enddatum Ort Dauer
Ulm 2 Tage
München 2 Tage
Friedrichshafen 2 Tage
Kassel 2 Tage
Wuppertal 2 Tage
Münster 2 Tage
Nürnberg 2 Tage
Köln 2 Tage
Bremen 2 Tage
Berlin 2 Tage
Mainz 2 Tage
Erfurt 2 Tage
Essen 2 Tage
Darmstadt 2 Tage
Frankfurt 2 Tage
Paderborn 2 Tage
Flensburg 2 Tage
Konstanz 2 Tage
Freiburg 2 Tage
Potsdam 2 Tage
Hamburg 2 Tage
Leipzig 2 Tage
Hamm 2 Tage
Rostock 2 Tage
Dresden 2 Tage
Luxemburg 2 Tage
Hannover 2 Tage
Stuttgart 2 Tage
Trier 2 Tage
Madgeburg 2 Tage
Regensburg 2 Tage
Jena 2 Tage
München 2 Tage
Friedrichshafen 2 Tage
Kassel 2 Tage
Ulm 2 Tage
Münster 2 Tage
Nürnberg 2 Tage
Köln 2 Tage
Wuppertal 2 Tage
Nach oben
Seminare als Stream SRI zertifiziert
© 2026 www.seminar-experts.de All rights reserved. | Kontakt | Impressum | Nach oben