Beschreibung
DP-203 Data Engineering on Microsoft Azure
Zielgruppe: Nur für Unternehmen und Institutionen.In diesem Kurs lernen Teilnehmende das Data Engineering in Bezug auf die Arbeit mit Batch- und Echtzeit-Analyselösungen unter Verwendung von Azure-Datenplattformtechnologien kennen. Sie erlernen zunächst die wichtigsten Rechen- und Speichertechnologien, die zum Aufbau einer analytischen Lösung verwendet werden. Teilnehmende lernen, wie sie in Dateien gespeicherte Daten in einem Data Lake interaktiv untersuchen können und die verschiedenen Ingestion-Techniken zum Laden von Daten mit der Apache Spark-Funktion in Azure Synapse Analytics oder Azure Databricks. Sie üben die Durchführung von Pipeline Ingests mit Azure Synapse. Weiter geht es mit den verschiedenen Möglichkeiten, Daten mit denselben Technologien umzuwandeln, die für den Dateningest verwendet werden. Sie werden verstehen, wie wichtig es ist, Sicherheit zu implementieren, damit die Daten im Ruhezustand oder bei der Übertragung geschützt sind. Ein Echtzeit-Analysesystem wird erstellt, um entsprechende Lösungen zu entwickeln.
Das Seminar eignet sich zur Vorbereitung auf die Microsoft Certified: Azure Data Engineer Associate Zertifizierung.
Kommende Starttermine
Inhalte / Module
- Rechen- und Speicheroptionen für Data-Engineering-Workloads
- Einführung in Azure Synapse Analytics
- Erläuterung von Azure Databricks
- Erläuterung in Azure Data Lake-Speicher
- Beschreiben der Delta Lake-Architektur
- Arbeiten mit Datenströmen unter Verwendung von Azure Stream Analytics
- Interaktive Abfragen mit Azure Synapse Analytics serverlosen SQL-Pools ausführen
- Möglichkeiten von Azure Synapse Serverless SQL Pools
- Abfragen von Daten im Lake mit Azure Synapse Serverless SQL Pools
- Erstellen von Metadatenobjekten in Azure Synapse Serverless SQL Pools
- Sichern von Daten und Verwalten von Benutzern in Azure Synapse Serverless SQL Pools
- Datenexploration und -umwandlung in Azure Databricks
- Azure Databricks
- Lesen und Schreiben von Daten in Azure Databricks
- Arbeiten mit DataFrames in Azure Databricks
- Arbeiten mit fortgeschrittenen DataFrames-Methoden in Azure Databricks
- Analysieren, Transformieren und Laden von Daten in das Data Warehouse mit Apache Spark
- Verstehen von Big Data Engineering mit Apache Spark in Azure Synapse Analytics
- Einlesen von Daten mit Apache Spark-Notebooks in Azure Synapse Analytics
- Transformieren von Daten mit DataFrames in Apache Spark-Pools in Azure Synapse Analytics
- Integrieren von SQL- und Apache Spark-Pools in Azure Synapse Analytics
- Daten in das Data Warehouse aufnehmen und laden
- Verwenden von Best Practices zum Laden von Daten in Azure Synapse Analytics
- Ingestion im Petabyte-Bereich mit Azure Data Factory
- Transformieren von Daten mit Azure Data Factory oder Azure Synapse Pipelines
- Datenintegration mit Azure Data Factory oder Azure Synapse Pipelines
- Codefreie Transformation im großen Maßstab mit Azure Data Factory oder Azure Synapse Pipelines
- Orchestrierung der Datenbewegung und -transformation in Azure Synapse Pipelines
- Orchestrierung der Datenbewegung und -transformation in Azure Data Factory
- End-to-End-Sicherheit mit Azure Synapse Analytics
- Data Warehouse in Azure Synapse Analytics sichern
- Konfigurieren und Verwalten von Secrets in Azure Key Vault
- Implementierung von Compliance-Kontrollen für sensible Daten
- Hybride transaktionale analytische Verarbeitung (HTAP) mit Azure Synapse Link unterstützen
- Entwerfen Sie hybride transaktionale und analytische Verarbeitung mit Azure Synapse Analytics
- Konfigurieren von Azure Synapse Link mit Azure Cosmos DB
- Abfrage von Azure Cosmos DB mit Apache Spark-Pools
- Abfrage von Azure Cosmos DB mit serverlosen SQL-Pools
- Stream-Verarbeitung in Echtzeit mit Stream Analytics
- Zuverlässiges Messaging für Big Data-Anwendungen mit Azure Event Hubs ermöglichen
- Arbeiten mit Daten-Streams mithilfe von Azure Stream Analytics
- Einlesen von Daten-Streams mit Azure Stream Analytics
- Erstellen einer Stream Processing-Lösung mit Event Hubs und Azure Databricks
- Verarbeiten von Streaming-Daten mit Azure Databricks Structured Streaming
- Verarbeiten von Streaming-Daten mit Azure Databricks Structured Streaming
Datenbankdesign und Datenmodellierung
- Beschreiben Sie die Vorteile von relationalen Datenbanken im Vergleich zu NoSQL-Datenbanken.
- Wie können Sie die Leistung einer Datenbank verbessern? Geben Sie einige Beispiele für Optimierungsmaßnahmen.
- Was ist Azure Data Factory und wie funktioniert es?
- Wie können Sie mit Azure Data Factory eine Datenpipeline entwerfen und implementieren?
- Was ist Azure Synapse Analytics und wie unterscheidet es sich von anderen Data-Warehousing-Systemen?
- Wie können Sie mit Azure Synapse Analytics eine Abfrage erstellen und ausführen?
- Was ist Azure Databricks und wie funktioniert es?
- Wie können Sie mit Azure Databricks Daten analysieren und transformieren?
- Was ist Hadoop und wie funktioniert es?
- Was ist Spark und wie unterscheidet es sich von Hadoop?
- Wie können Sie HDInsight in Azure verwenden, um Big Data zu verarbeiten?
Zielgruppe / Voraussetzungen
Hinweis: Dieser Kurs richtet sich an Mitarbeitende aus Unternehmen und Institutionen.
Für Privatpersonen ist dieser Kurs leider nicht geeignet.
Bitte beachten Sie: Bildungsgutscheine der Agentur für Arbeit werden für diesen Kurs NICHT anerkannt.
Abschlussqualifikation / Zertifikat
Infos anfordern
GFU Cyrus AG
Erweitern Sie Ihre IT-Skills mit einem offenen IT-Training oder ganz nach Ihren Bedürfnissen durch eine individuelle IT-Schulung. Programmiersprachen (C#, Python, Java, …), Microsoft Office 365, Anforderungsmanagement, Projektmanagement, Business Intelligence, Data Science, Künstliche Intelligenz, IT-Sicherheit , Administration & Datenbanken, Softwareentwicklung, Testmanagement...
Erfahren Sie mehr über GFU Cyrus AG und weitere Kurse des Anbieters.