Der Kurs befindet sich noch im Beta Status, voraussichtliche Inhalte werden sein:
Implementieren und Verwalten einer Analyselösung
- Konfigurieren von Microsoft Fabric-Arbeitsbereichseinstellungen
- Konfigurieren von Spark-Arbeitsbereichseinstellungen
- Konfigurieren von Domänenarbeitsbereichseinstellungen
- Konfigurieren von OneLake-Arbeitsbereichseinstellungen
- Konfigurieren von Datenworkflow-Arbeitsbereichseinstellungen
- Implementieren der Lebenszyklusverwaltung in Fabric
- Konfigurieren der Versionskontrolle
- Implementieren von Datenbankprojekten
- Erstellen und Konfigurieren von Bereitstellungspipelines
- Sicherstellen von Sicherheit und Governance
- Implementieren von Zugriffssteuerungen auf Arbeitsbereichsebene
- Implementieren von Zugriffssteuerelementen auf Elementebene
- Implementieren von Zugriffssteuerelementen auf Zeilenebene, Spaltenebene, Objektebene und Zugriffssteuerung auf Dateiebene
- Implementieren der dynamischen Datenmaskierung
- Anwenden von Vertraulichkeitsbezeichnungen auf Elemente
- Unterstützen von Elementen
- Orchestrieren von Prozessen
- Auswählen zwischen einer Pipeline und einem Notebook
- Entwerfen und Implementieren von Zeitplänen und ereignisbasierten Triggern
- Implementieren von Orchestrierungsmustern mit Notebooks und Pipelines, einschließlich Parametern und dynamischen Ausdrücken
Erfassen und Transformieren von Daten
- Entwerfen und Implementieren von Lademustern
- Entwerfen und Implementieren vollständiger und inkrementeller Datenladevorgänge
- Vorbereiten von Daten für das Laden in ein dimensionales Modell
- Entwerfen und Implementieren eines Lademusters für Streamingdaten
- Aufnehmen und Transformieren von Batchdaten
- Auswählen eines geeigneten Datenspeichers
- Wählen Zwischen Datenflüssen, Notebooks und T-SQL für die Datentransformation
- Erstellen und Verwalten von Verknüpfungen zu Daten
- Implementieren der Spiegelung
- Erfassen von Daten mithilfe von Pipelines
- Transformieren von Daten mithilfe von PySpark, SQL und KQL
- Denormalisieren von Daten
- Gruppieren und Aggregieren von Daten
- Behandeln von duplizierten, fehlenden und verspätet eingetroffenen Daten
- Erfassen und transformieren von Streamingdaten
- Auswählen eines geeigneten Streamingmoduls
- Verarbeiten von Daten mithilfe von Eventstreams
- Verarbeiten von Daten mithilfe des strukturierten Spark-Streamings
- Verarbeiten von Daten mithilfe von KQL
- Erstellen von Windowingfunktionen
Überwachen und Optimieren einer Analyselösung
- Überwachen von Fabric-Elementen
- Überwachen der Datenerfassung
- Überwachen der Datentransformation
- Überwachen der Aktualisierung des semantischen Modells
- Konfigurieren von Warnungen
- Fehler erkennen und beseitigen
- Identifizieren und Beheben von Pipelinefehlern
- Identifizieren und Beheben von Datenflussfehlern
- Identifizieren und Beheben von Notebookfehlern
- Identifizieren und Beheben von Evenhouse-Fehlern
- Identifizieren und Beheben von Eventstream-Fehlern
- Identifizieren und Beheben von T-SQL-Fehlern
- Optimieren der Leistung
- Optimieren einer Lakehouse-Tabelle
- Optimieren einer Pipeline
- Optimieren eines Data Warehouse
- Optimieren von Eventstreams und Eventhouses
- Optimieren der Spark-Leistung
- Optimieren der Abfrageleistung