Schulungen

meet-the-experts-logo-weiss

Wissen, das Sie persönlich weiterbringt, weil Sie es sofort anwenden können – das versprechen unsere neuesten Schulungen und Workshops.

Training:

HDP Developer: Apache Storm and Trident

Beschreibung:

Dieser Kurs wird in Zusammenarbeit mit Hortonworks angeboten (siehe Original-Kursbeschreibung) und bietet eine technische Einführung in die Grundlagen von Apache Storm und Trident. Es werden die Konzepte, Terminologie, Architektur, Installation, Betrieb und Management von Storm und Trident vorgestellt. Prototypische Codeschnipsel demonstrieren den Einsatz von Storm und Trident in Java. Der Kurs beinhaltet auch eine Einführung in Apache Kafka samt Codebeispielen. Apache Kafka is ein Messaging System, das oft zusammen mit Storm und Trident verwendet wird.

Das Format ist wie gewohnt praxisorientiert und unsere Trainer teilen ihr Wissen und ihre Erfahrung in ca. 50% Theorie & Diskussionen sowie ca. 50% Labs und Übungen am eigenen Rechner mit Ihnen.

Schulungssprache

Deutsch, Material auf Englisch

Termine und Ort

  • auf Anfrage

Teilnahmegebühr

1.200 EUR zzgl. MwSt.

Anmeldeformular


Teilnahmevoraussetzungen und Zielgruppe

Teilnehmer müssen Erfahrung in Java-Entwicklung und dem Einsatz von Java-IDE’s haben. Die Labs verwenden die Eclipse IDE und Gradle. Ein Basisverständnis von Hadoop ist wünschenswert. Teilnehmer benötigen einen eigenen leistungsfähigen Laptop mit mindestens 8 GB Arbeitsspeicher und 50 GB Plattenplatz.

Zielgruppe:

Hadoop-Entwickler, die Echtzeit-Anwendungen mit Storm, Trident und Kafka in Java entwickeln und bauen wollen

Trainer:

Uwe Printz

Uwe Printz ist Data Architect und Trainer. Seit dem ersten Kontakt mit verteilten Systemen lässt seine Begeisterung dafür nicht nach und zurzeit hält er sich bevorzugt im Hadoop-Zoo auf.

Inhalte:

  • Unterschiede zwischen Batchverarbeitung und Echtzeit-Verarbeitung
  • Storm Elemente wie Tuple, Streams, Spouts, Bolts, Topologien, Worker Prozesse, Executors, Stream-Gruppierung
  • Storm Architekturkomponenten wie Nimbus, Supervisiors und ZooKeeper Cluster
  • Prototypischer Java Code für Spouts, Bolts und Topologien
  • Entwicklung von Java Code, um Topologien lokal oder auf einem Cluster zu installieren
  • Unterschiede zwischen zuverlässiger und unzuverlässiger Verarbeitung von Nachrichten mit Storm
  • Storm Monitoring und Management aus der Kommandozeile und via Browser-basiertem Interface
  • Kafka-Grundbegriffe wie Topics, Produzenten, Konsumenten und Brokers
  • Versand von Kafka Nachrichten an Storm oder Trident Topologien
  • Trident Elemente wie Tuple, Streams, Batches, Partitionen, Topologien, Trident Spouts und Operationen
  • Prototypische Javacode für Trident Operationen einschließlich Filtern, Funktionen, Aggregationen, Zusammenführungen
  • Unterschiede zwischen verschiedenen Typen von Trident Status.
  • Einsatz von Trident Status zur Gewährleistung von Exakt-Einmal-Verarbeitung von Nachrichten und für idempotente Operationen
  • Unterschiede in der Fehlertoleranz zwischen verschiedenen Arten von Trident Spouts
  • Trident-Status-basierte Operationen