Entdecken Sie die Welt des Datenengineerings mit unserem Microsoft-Kurs DP-203. Tauchen Sie ein in die Azure Data Services und lernen Sie, wie Sie Datenmodelle entwerfen, Daten integrieren, verarbeiten, verwalten und überwachen. Erfahren Sie, wie Sie Sicherheitskonzepte implementieren und Datenschutzvorschriften einhalten. Durch praktische Projekte und Fallstudien werden Sie in die Lage versetzt, reale Szenarien in Azure umzusetzen und Ihr Wissen anzuwenden. Mit Schwerpunkt auf Hands-on-Übungen und praxisnahen Beispielen erhalten Sie das nötige Rüstzeug, um effektive Datenlösungen in der Cloud zu entwickeln. Ob Sie Ihre Fähigkeiten erweitern oder sich auf die Zertifizierungsprüfung vorbereiten möchten, dieser Kurs bietet Ihnen das Fachwissen und die praktische Erfahrung, die Sie benötigen. Werden Sie ein Experte für Datenengineering in der Azure Cloud und gestalten Sie die Zukunft der Datenverarbeitung mit.
Teilnahmegebühren:
Rechen- und Speicheroptionen für Data-Engineering-Workloads
Einführung in Azure Synapse Analytics
Erläuterung von Azure Databricks
Erläuterung in Azure Data Lake-Speicher
Beschreiben der Delta Lake-Architektur
Arbeiten mit Datenströmen unter Verwendung von Azure Stream Analytics
Design und Implementierung der Serving Layer
Entwerfen eines mehrdimensionales Schemas, um analytische Workloads zu optimieren
Codefreie Transformation im Maßstab mit Azure Data Factory
Sich langsam ändernde Dimensionen in Azure Synapse Analytics-Pipelines füllen
Überlegungen zum Daten-Engineering für Quelldateien
Entwerfen eines modernen Daten-Warehouse mit Azure Synapse Analytics
Sichern eines Daten-Warehouse in Azure Synapse Analytics
Interaktive Abfragen mit Azure Synapse Analytics serverlosen SQL-Pools ausführen
Möglichkeiten von Azure Synapse Serverless SQL Pools
Abfragen von Daten im Lake mit Azure Synapse Serverless SQL Pools
Erstellen von Metadatenobjekten in Azure Synapse Serverless SQL Pools
Sichern von Daten und Verwalten von Benutzern in Azure Synapse Serverless SQL Pools
Durchsuchen, Transformieren und Laden von Daten in das Daten-Warehouse mit Apache Spark
Grundlegendes zum Engineering großer Datenmengen mit Apache Spark in Azure Synapse Analytics
Daten mit Apache Spark-Notebooks in Azure Synapse Analytics aufnehmen
Daten mit Data Frames in Apache Spark-Pools in Azure Synapse Analytics transformieren
SQL- und Apache Spark-Pools in Azure Synapse Analytics integrieren
Datenexploration und -transformation in Azure Databricks
Beschreiben von Azure Databricks
Lesen und Schreiben von Daten in Azure Databricks
Arbeiten mit Data Frames in Azure Databricks
Arbeiten mit erweiterten Data Frames-Methoden in Azure Databricks
Daten aufnehmen und in das Daten- Warehouse laden
Verwenden Sie bewährte Praktiken zum Laden von Daten in Azure Synapse Analytics
Aufnahme im Petabyte-Bereich mit Azure Data Factory
Transformieren von Daten mit Azure Data Factory- oder Azure Synapse-Pipelines
Datenintegration mit Azure Data Factory- oder Azure Synapse-Pipelines
Codefreie Transformation im Maßstab mit Azure Data Factory- oder Azure Synapse-Pipelines
Orchestrierung der Datenbewegung und -transformation in Azure Synapse Pipelines
Orchestrierung der Datenbewegung und -transformation in Azure Data Factory
Optimieren der Abfrageleistung mit dedizierten SQL-Pools in Azure Synapse
Optimieren der Data-Warehouse-Abfrageleistung in Azure Synapse Analytics
Verstehen der Data-Warehouse-Entwicklerfunktionen von Azure Synapse Analytics
Analyse und Optimierung der Daten Warehouse Speicherung
Analysieren und Optimierung des Daten-Warehouse-Speicher in Azure Synapse Analytic
Hybride transaktionale analytische Verarbeitung (HTAP) mit Azure Synapse Link unterstützen
Entwerfen hybride transaktionale und analytische Verarbeitung mit Azure Synapse Analytics
Konfigurieren von Azure Synapse Link mit Azure Cosmos DB
Abfrage von Azure Cosmos DB mit Apache Spark-Pools
Abfrage von Azure Cosmos DB mit serverlosen SQL-Pools
End-to-End-Sicherheit mit Azure Synapse Analytics
Sichern eines Data Warehouse in Azure Synapse Analytics
Konfigurieren und Verwalten von Secrets in Azure Key Vault
Implementieren von Compliance-Kontrollen für sensible Daten
Echtzeit-Stream-Verarbeitung mit Stream Analytics
Ermöglichen des zuverlässiges Messaging für Big-Data-Anwendungen mit Azure Event Hubs
Arbeiten mit Datenströmen mithilfe von Azure Stream Analytics
Ingest von Datenströmen mit Azure Stream Analytics
Erstellen einer Stream-Verarbeitungslösung mit Event Hubs und Azure Databricks
Verarbeiten von Streaming-Daten mit Azure Databricks strukturiertem Streaming
Erstellen von Berichten mit Hilfe der Power BI-Integration mit Azure Synapse Analytics
Erstellen von Berichten mit Power BI mit Hilfe der Integration in Azure Synapse Analytics
Integrierte Machine-Learning-Prozesse in Azure Synapse Analytics durchführen
Verwendung des integrierten maschinellen Lernprozesses in Azure Synapse Analytics
Für diesen Kurs sollten die Kursteilnehmer folgende Vorkenntnisse mitbringen:
Kenntnissen in Cloud Computing und Kerndatenkonzepten
Berufserfahrung mit Datenlösungen
Absolvierung der Kurse:
AZ-900 - Azure Fundamentals
DP-900 - Microsoft Azure Data Fundamentals
Dieser Kurs richtet sich an Business-Intelligence-Experten, Datenanalysten, Datenarchitekten und Datenexperten, die die mit auf Microsoft Azure basierenden Analyselösungen arbeiten.
Teilnahmegebühren: