4.8 bei Google (48 Bewertungen)

DP-601 - Implementing a Lakehouse with Microsoft Fabric (DP-601T00)

Aufbau grundlegender Data-Science-Kenntnisse auf Microsoft Fabric mit dem Lakehouse-Konzept

Zu den Terminen

Das Seminar DP-601 - Implementing a Lakehouse with Microsoft Fabric (DP-601T00) dient dem Aufbau grundlegender Data-Science-Kenntnisse auf Microsoft Fabric und konzentriert sich auf das Lakehouse-Konzept. In diesem Kurs werden die leistungsstarken Fähigkeiten von Apache Spark für verteiltes Rechnen und die grundlegenden Techniken für effizientes Datenmanagement, Versionsmanagement und Zuverlässigkeit durch die Arbeit mit Delta Lake-Tabellen erkundet. Der Kurs befasst sich auch mit der Dateneingabe und -orchestrierung mithilfe der Dataflow-Pipelines Gen2 und Data Factory. Dieser Kurs beinhaltet eine Kombination aus Vorlesungen und praktischen Übungen, die dich auf die Arbeit mit Lakehouses in Microsoft Fabric vorbereiten.

Microsoft Gold Partner Logo

Microsoft Learning Partner


Als Microsoft Certified Learning Partner bieten wir dir die Möglichkeit, Kenntnisse im Umgang mit allen Microsoft Produkten in unseren Trainings zu erwerben, zu verbessern und zu zertifizieren. So steigerst du deine Produktivität am Arbeitsplatz. Selbstverständlich kannst du die Microsoft Kurse auch in Form einer Online Schulung besuchen.

Inhalte

Einführung in die End-to-End-Analytik mit Microsoft Fabric

  • Einführung

  • Entdecken Sie End-to-End-Analysen mit Microsoft Fabric

  • Datenteams und Microsoft Fabric

  • Microsoft Fabric aktivieren und nutzen

  • Wissens-Check

Erste Schritte mit Lakehouses in Microsoft Fabric

  • Einführung

  • Erforsche das Microsoft Fabric Lakehouse

  • Arbeiten mit Microsoft Fabric Lakehouses

  • Übung - Erstellen und Einlesen von Daten mit einem Microsoft Fabric Lakehouse

Apache Spark in Microsoft Fabric verwenden

  • Einführung

  • Vorbereitungen für die Verwendung von Apache Spark

  • Spark-Code ausführen

  • Mit Daten in einem Spark-Datenframe arbeiten

  • Mit Daten unter Verwendung von Spark SQL arbeiten

  • Visualisieren von Daten in einem Spark-Notizbuch

  • Übung - Analysieren von Daten mit Apache Spark

  • Wissensüberprüfung

Mit Delta Lake-Tabellen in Microsoft Fabric arbeiten

  • Einführung

  • Delta Lake verstehen

  • Deltatabellen erstellen

  • Mit Deltatabellen in Spark arbeiten

  • Deltatabellen mit Streaming-Daten verwenden

Daten mit Gen2-Datenströmen in Microsoft Fabric einlesen

  • Verstehen von Dataflows (Gen2) in Microsoft Fabric

  • Datenflüsse (Gen2) in Microsoft Fabric erforschen

  • Integration von Dataflows (Gen2) und Pipelines in Microsoft Fabric

Data Factory-Pipelines in Microsoft Fabric verwenden

  • Einführung

  • Verstehen von Pipelines

  • Die Aktivität Daten kopieren verwenden

  • Pipeline-Vorlagen verwenden

  • Pipelines ausführen und überwachen

DP-601 - Implementing a Lakehouse with Microsoft Fabric (DP-601T00) Zielgruppe

Die primäre Zielgruppe für diesen Kurs sind Datenexperten, die mit der Datenmodellierung, -extraktion und -analyse vertraut sind. Er richtet sich an Fachleute, die sich für die Lakehouse-Architektur und die Microsoft Fabric-Plattform interessieren und wissen möchten, wie man mit diesen Technologien End-to-End-Analysen ermöglicht.

DP-601 - Implementing a Lakehouse with Microsoft Fabric (DP-601T00) Voraussetzungen

Du solltest mit grundlegenden Datenkonzepten und der zugehörigen Terminologie vertraut sein.

Schulungen die dich interessieren könnten

Unternehmen in Deutschland, Österreich und der Schweiz, die uns vertrauen

Das sagen unsere Kunden

Wir arbeiten ständig daran uns zu verbessern. Dafür sind wir auf das Feedback unserer Kunden angewiesen.

Kompetentes Online-Training mit Learning by Doing. Besser geht nicht. Jeannette M.

Sehr gute Planung und Organisation aller Microsoft Office Schulungen. Incas Training ist sehr zu empfehlen! Christopher M.

Toller Service. Hatte auf Ihrer Seite KOSTENLOS den Weg gefunden, sämtliche Animationen mit einem Schritt zu entfernen. Hat super geklappt. Vielen lieben Dank dafür. Wenn ich schon nichts bezahlen muss, dann wenigstens eine passenden Bewertung :-) Thomas S.