Dieser Kurs führt die Teilnehmer auf faszinierende Weise in die Welt des Data Engineering ein, insbesondere in das Konzept des Lakehouses und ermöglicht es ihnen, die Fähigkeiten in diesem Bereich intensiv auszubauen.
Die Teilnehmer erkunden die Potenziale von Apache Spark für verteilte Datenverarbeitung. Praktische Übungen vermitteln effizientes Datenmanagement, Versionierung und Stabilitätssteigerung mit Delta Lake-Tabellen. Sie lernen zudem grundlegende Konzepte der Dateninjektion und -orchestrierung sowie die erfolgreiche Anwendung von Dataflows Gen2 und Data Factory Pipelines im beruflichen Kontext.
Teilnahmegebühren:
Einführung End-to-End-Analyse mit Microsoft Fabric
Überblick
Daten Teams und Microsoft Fabric
Aktivierung und Verwendung von Microsoft Fabric
Einstieg in Lakehouses in Microsoft Fabric
Überblick
Tätigkeiten im Umgang mit Microsoft Fabric Lakehouse
Verwenden von Apache Spark in Microsoft Fabric
Vorbereitung auf die Nutzung von Apache Spark
Ausführung von Spark-Code
Bearbeiten von Daten in einem Spark DataFrame
Bearbeiten von Daten unter Verwendung von Spark SQL
Virtualisierung von Daten in einem Spark Notebook
Arbeiten mit Delta Lake-Tabellen in Microsoft Fabric
Verstehen von Delta Lake
Erstellung von Delta-Tabellen
Bearbeitung mit Delta-Tabellen in Spark
Verwenden von Delta-Tabellen mit Streaming-Daten
Daten erfassen mit Dataflows Gen2 in Microsoft Fabric
Verstehen von Dataflows (Gen2)
Erforschung von Dataflows (Gen2)
Integrieren von Dataflows (Gen2) und Pipelines
Verwenden von Data Factory-Pipelines in Microsoft Fabric
Verstehen von Pipelines
Verwenden der "Copy Data"-Aktivität
Verwenden von Pipeline-Vorlagen
Ausführung und Überwachung von Pipelines
Für diesen Kurs sollten die Kursteilnehmer folgende Vorkenntnisse mitbringen:
grundlegendes Verständnis von Datenkonzepten und -begriffen
Dieser Kurs richtet sich an Datenanalysten, Dateningenieure und Data Scientist.
Getränke und Snacks sind im Seminarpreis enthalten.
Teilnahmegebühren: