Building Transformer-Based Natural Language Processing Applications Seminar
Building Transformer-Based Natural Language Processing Applications: Aufbau von transformatorbasierten Anwendungen zur Verarbeitung natürlicher Sprache
Building Transformer-Based Natural Language Processing Applications Seminar
Building Transformer-Based Natural Language Processing Applications: Aufbau von transformatorbasierten Anwendungen zur Verarbeitung natürlicher Sprache
Lerne im Building Transformer-Based Natural Language Processing Applications Training, wie du ein transformatorbasiertes Deep-Learning-Modell auf Aufgaben der natürlichen Sprachverarbeitung (NLP) anwendest und fein abstimmst.
In diesem Kurs lernst du, wie du:
ein neuronales Transformer-Netzwerk in PyTorch zu erstellen
eine Anwendung zur Erkennung benannter Entitäten (NER) mit BERT zu erstellen
die NER-Anwendung mit ONNX und TensorRT auf einem Triton Inference Server bereitstellen
Lernziele Building Transformer-Based Natural Language Processing Applications Seminar
Nach dem Building Transformer-Based Natural Language Processing Applications Kurs weißt du:
Wie Transformatoren als Bausteine für moderne LLM für NLP-Anwendungen verwendet werden
Wie Self-Supervision die Transformer-Architektur in BERT, Megatron und anderen LLM-Varianten verbessert, um bessere NLP-Ergebnisse zu erzielen
Wie man vortrainierte moderne LLM-Modelle nutzt, um verschiedene NLP-Aufgaben wie Textklassifikation, Named Entity Recognition (NER) und Fragenbeantwortung zu lösen
Nutzung von vortrainierten modernen NLP-Modellen zur Lösung verschiedener Aufgaben wie Textklassifikation, Named Entity Recognition (NER) und Beantwortung von Fragen
Bewältigung von Inferencing-Herausforderungen und Bereitstellung verfeinerter Modelle für Live-Anwendungen
Am Ende des Natural Language Processing Applications Kurses bist du in der Lage, transformatorbasierte Modelle auf agnostische Weise einzusetzen.
Inhalte Building Transformer-Based Natural Language Processing Applications Seminar
Einführung
Treffen Sie den Ausbilder.
Erstellen Sie ein Konto unter courses.nvidia.com/join
Einführung in Transformatoren
Erkunden Sie die Funktionsweise der Transformatorarchitektur im Detail:
Bauen Sie die Transformator-Architektur in PyTorch auf.
Berechnen Sie die Selbstbeobachtungsmatrix.
Übersetzen Sie Englisch nach Deutsch mit einem vortrainierten Transformationsmodell.
Selbstüberwachung, BERT und mehr
Erfahren Sie, wie Sie mit NVIDIA NeMo selbstüberwachte transformatorbasierte Modelle auf konkrete NLP-Aufgaben anwenden können:
Erstellen Sie ein Textklassifizierungsprojekt, um Abstracts zu klassifizieren.
Erstellen Sie ein NER-Projekt zur Identifizierung von Krankheitsnamen in Texten.
Verbessern Sie die Projektgenauigkeit mit bereichsspezifischen Modellen.
Inferenz und Einsatz für NLP
Erfahren Sie, wie Sie ein NLP-Projekt für Live-Inferenz auf NVIDIA Triton bereitstellen:
Bereiten Sie das Modell für den Einsatz vor.
Optimieren Sie das Modell mit NVIDIA® TensorRT™.
Setzen Sie das Modell ein und testen Sie es.
Abschließende Überprüfung
Besprechen Sie die wichtigsten Erkenntnisse und beantworten Sie Fragen.
Schließen Sie die Bewertung ab und erhalten Sie ein Zertifikat.
Nehmen Sie an der Workshop-Umfrage teil.
Erfahren Sie, wie Sie Ihre eigene Umgebung einrichten können, und diskutieren Sie über zusätzliche Ressourcen und Schulungen.
Ende des Building Transformer-Based Natural Language Processing Applications Trainings
Wir schulen auch bei dir vor Ort!
Diese Building Transformer-Based Natural Language Processing Applications Schulung führen wir auch bei dir im Unternehmen als individualisierte Building Transformer-Based Natural Language Processing Applications-Firmenschulung durch.
Building Transformer-Based Natural Language Processing Applications: Zielgruppe Building Transformer-Based Natural Language Processing Applications Seminar
Das Training Building Transformer-Based Natural Language Processing Applications richtet sich an
Datenbankspezialisten
Data Engineers
Softwareentwickler
technische Entscheider
Building Transformer-Based Natural Language Processing Applications: Voraussetzungen Building Transformer-Based Natural Language Processing Applications Seminar
Für deine Teilnahme an der Building Transformer-Based Natural Language Processing Applications Schulung empfehlen wir:
Erfahrung mit der Programmierung in Python und der Verwendung von Bibliotheksfunktionen und Parametern
Grundlegendes Verständnis eines Deep Learning Frameworks wie TensorFlow, PyTorch oder Keras
Grundkenntnisse über neuronale Netze
4.8
(346)
Building Transformer-Based Natural Language Processing Applications Seminar
Building Transformer-Based Natural Language Processing Applications: Aufbau von transformatorbasierten Anwendungen zur Verarbeitung natürlicher Sprache
Lerne im Building Transformer-Based Natural Language Processing Applications Training, wie du ein transformatorbasiertes Deep-Learning-Modell auf Aufgaben der natürlichen Sprachverarbeitung (NLP) anwendest und fein abstimmst.
In diesem Kurs lernst du, wie du:
ein neuronales Transformer-Netzwerk in PyTorch zu erstellen
eine Anwendung zur Erkennung benannter Entitäten (NER) mit BERT zu erstellen
die NER-Anwendung mit ONNX und TensorRT auf einem Triton Inference Server bereitstellen
Building Transformer-Based Natural Language Processing Applications Seminar