Dieser Lernpfad vermittelt, wie man die Leistungsfähigkeit von Apache Spark und die skalierbaren Cluster von Azure Databricks nutzt, um umfangreiche Data-Engineering-Workloads in der Cloud zu bewältigen. Teilnehmer lernen, Daten aus verschiedenen Quellen zu integrieren, Datenpipelines zu erstellen und Workloads effizient zu orchestrieren.
Teilnahmegebühren:
Einführung in Azure Databricks
Überblick über Azure Databricks als skalierbare Plattform für Datenanalysen mit Apache Spark.
Durchführen einer Datenanalyse mit Azure Databricks
Erlernen verschiedener Datenaufnahmemethoden und Integration von Daten aus Quellen wie Azure Data Lake und Azure SQL-Datenbank. Verwendung kollaborativer Notebooks zur explorativen Datenanalyse (EDA).
Verwenden von Apache Spark in Azure Databricks
Ausführen von Spark-Aufträgen zur Transformation, Analyse und Visualisierung großer Datenmengen.
Verwalten von Daten mit Delta Lake
Nutzung von Delta Lake für ACID-Transaktionen, Schemaerzwingung und Zeitreisen zur Sicherstellung von Datenkonsistenz und -integrität.
Erstellen von Datenpipelines mit Delta Live Tables
Erstellung skalierbarer und zuverlässiger Datenverarbeitungspipelines in Echtzeit mithilfe der erweiterten Funktionen von Delta Lake.
Bereitstellen von Workloads mit Azure Databricks Workflows
Orchestrierung und Automatisierung komplexer Datenverarbeitungspipelines, maschineller Lernprozesse und Analyseaufgaben.
Es sind keine spezifischen Voraussetzungen erforderlich. Grundlegende Kenntnisse in Datenanalyse und Cloud-Technologien sind jedoch von Vorteil.
Der Lernpfad richtet sich an Datentechniker, Datenanalysten und IT-Fachkräfte, die ihre Fähigkeiten im Bereich Data Engineering mit Azure Databricks vertiefen möchten.
Teilnahmegebühren: