Schulungen

meet-the-experts-logo-weiss

Wissen, das Sie persönlich weiterbringt, weil Sie es sofort anwenden können – das versprechen unsere neuesten Schulungen und Workshops.

HDP Operations: HDP Administration 2

Beschreibung:

Apache Hadoop ist eine der umfassendsten und populärsten Lösungen für die aktuellen Herausforderungen im Umfeld von Big Data. Hadoop 2.x bietet dabei sowohl eine skalierbare und zuverlässige Plattform für das Speichern von großen Datenmengen unterschiedlicher Struktur und Herkunft als auch zahlreiche Werkzeuge und Paradigmen für deren Verarbeitung. Dieser dreitägige Kurs wendet sich an erfahrene Administratoren, die die Hortonworks Data Plattform mit Ambari administrieren. Der Kurs behandelt Upgrades, Konfiguration, Anwendungsmanagement und andere allgemeine Aufgaben. Dieses praxisorientierte Training wird in Zusammenarbeit mit Hortonworks angeboten (siehe Original-Kursbeschreibung) und unsere erfahrenen Trainer teilen ihr Wissen und ihre Erfahrung in ca. 60% Theorie & Diskussionen sowie ca. 40% Labs & Übungen am eigenen Rechner mit Ihnen.

Schulungssprache

Deutsch oder Englisch, Material auf Englisch

Termine und Ort

  • 06.03.-08.03.2017 - Frankfurt am Main
  • 22.05.-24.05.20178 - Frankfurt am Main

Teilnahmegebühr

1.800 EUR zzgl. Mehrwertsteuer (inkl. Mittagessen und Getränke)

Anmeldeformular


Teilnahmevoraussetzungen und Zielgruppe

  • Administratoren & DevOps, die verantwortlich sind für die Installation, den Betrieb und den Support von Hadoop-Clustern auf Basis der Hortonworks Data Platform (HDP) 2.x mit Apache Ambari.
  • Teilnehmer sollten das Training HDP Operations: Hadoop Administration 1 mitgemacht haben oder über gleichwertiges Wissen und Erfahrung verfügen.
  • Basiskenntnisse in Linux werden vorausgesetzt.
  • Jeder Teilnehmer bekommt für die Dauer des Trainings eine vorkonfigurierte HDP 2.3 Umgebung über Amazon AWS zur Verfügung gestellt. Daher benötigen die Teilnehmer lediglich einen zeitgemäßen Rechner zum Verbinden mit dieser Umgebung:
    • Zeitgemäße CPU mit 2+ GHz (bevorzugt Intel i5/i7 oder äquivalente AMD-Architektur
    • Mind. 4 GB RAM
    • 4 GB freier Speicherplatz
    • Firefox, Chrome oder Safari (Internet Explorer wird aktuell nicht unterstützt)

Trainer:

Uwe Printz

Uwe Printz ist Data Architect und Trainer. Seit dem ersten Kontakt mit verteilten Systemen lässt seine Begeisterung dafür nicht nach und zurzeit hält er sich bevorzugt im Hadoop-Zoo auf.

Inhalte:

  • Automatische Installation und Upgrades auf HDP Clustern
  • Konfiguration von HDFS für NFS-Integration und zentralisiertes Caching
  • Kontrolle von Anwendungsverhalten durch Knotenlabel
  • Anwendungsdeployment durch Slider
  • Konfiguration von HDP zur Performanceoptimierung von Hive
  • Management von HDP Datenkompression
  • Integration von Ambari in existierende LDAP Umgebungen zum Management von Benutzern und Gruppen
  • Einstellung von Hochverfügbarkeit von Hive und Oozie
  • Importieren von SQL Tabellen und Logdateien in HDFS
  • Best Practices für die Skalierung von HDP Anwendungen
  • Konfiguration von HDP für automatische Datenreplikation

Hands-On Labs:

  • Einführung in die Trainingsumgebung
  • HDP Rolling Upgrade
  • Konfiguration des HDFS NFS Gateways
  • Konfiguration des HDFS Centralized Cache
  • Konfiguration von YARN Knotenlabeln
  • Deployment von HBase mithilfe von Slider
  • Integration von Ambari in LDAP
  • Hochverfügbarkeit von Hive
  • Oozie Workflows
  • Hochverfügbarkeit von Oozie
  • Konfiguration von Datenspiegelung mit Falcon
  • HDP Installation mit Ambari Blueprints
  • Hive Performance Optimierung
  • Management von Datenkompression