Inhalt folgt
Model Parallelism: Building and Deploying Large Neural Networks Seminar
Modellparallelität: Aufbau und Einsatz von großen neuronalen Netzen
Du bekommst in unserem Model Parallelism: Building and Deploying Large Neural Networks Training das Wissen um Modelle mit Dutzenden bis Hunderten von Milliarden Parametern auf riesigen Datensätzen zu entwickeln.
Sehr große tiefe neuronale Netze (DNNs), egal ob sie für die Verarbeitung natürlicher Sprache (z. B. GPT-3), das Sehen (z. B. riesige Vision Transformers) oder die Sprach-KI (z. B. Wave2Vec 2) eingesetzt werden, haben bestimmte Eigenschaften, die sie von ihren kleineren Gegenstücken unterscheiden. Da DNNs immer größer werden und auf immer größeren Datensätzen trainiert werden, können sie sich mit nur einer Handvoll Trainingsbeispielen an neue Aufgaben anpassen, was den Weg zur allgemeinen künstlichen Intelligenz beschleunigt. Das Trainieren von Modellen mit Dutzenden bis Hunderten von Milliarden Parametern auf riesigen Datensätzen ist nicht trivial und erfordert eine einzigartige Kombination aus KI, High-Performance-Computing (HPC) und Systemwissen.
Bitte beachte, dass eine einmal bestätigte Buchung nicht erstattungsfähig ist. Das bedeutet, dass du deinen Platz für eine Veranstaltung nach der Bestätigung nicht mehr stornieren kannst und keine Rückerstattung erfolgt, unabhängig von der Teilnahme an der Veranstaltung.
Inhalte Model Parallelism: Building and Deploying Large Neural Networks Seminar
Model Parallelism: Building and Deploying Large Neural Networks: Zielgruppe Model Parallelism: Building and Deploying Large Neural Networks Seminar
Unser mit Dutzenden bis Hunderten von Milliarden Parametern auf riesigen Datensätzen Kurs richtet sich an:
- Datenbankspezialisten
- Data Engineers
- Softwareentwickler
- technische Entscheidungsträger
Model Parallelism: Building and Deploying Large Neural Networks: Voraussetzungen Model Parallelism: Building and Deploying Large Neural Networks Seminar
Für deinen Besuch des Trainings empfehlen wir Vertrautheit mit:
- Gutes Verständnis von PyTorch
- Gutes Verständnis von Deep Learning und datenparallelen Trainingskonzepten
- Praxis mit Deep Learning und Datenparallelität sind nützlich, aber optional