Rapid Application Development Using Large Language Models
Schnelle Anwendungsentwicklung mit großen Sprachmodellen
Zu den TerminenDie jüngsten Fortschritte bei den Techniken und der Zugänglichkeit von großen Sprachmodellen (LLMs) haben Unternehmen ungeahnte Möglichkeiten eröffnet, ihre Abläufe zu rationalisieren, Kosten zu senken und die Produktivität in großem Umfang zu steigern. Unternehmen können LLM-gestützte Apps auch nutzen, um ihren Kunden innovative und verbesserte Dienstleistungen anzubieten oder die Kundenbeziehungen zu stärken. Zum Beispiel können Unternehmen ihren Kunden mit Hilfe von virtuellen KI-Assistenten Unterstützung bieten oder mit Hilfe von Apps zur Stimmungsanalyse wertvolle Erkenntnisse über ihre Kunden gewinnen. In diesem Kurs erwirbst du ein solides Verständnis und praktisches Wissen über die Entwicklung von LLM-Anwendungen, indem du das Open-Source-Ökosystem erkundest, einschließlich vorgebildeter LLMs, die dir helfen können, schnell mit der Entwicklung LLM-basierter Anwendungen zu beginnen. Bitte beachte, dass eine einmal bestätigte Buchung nicht erstattungsfähig ist. Das bedeutet, dass du deinen Platz für eine Veranstaltung nach der Bestätigung nicht mehr stornieren kannst und keine Rückerstattung erhältst, unabhängig von der Teilnahme an der Veranstaltung.
Lernziele
Finde, ziehe ein und experimentiere mit dem HuggingFace-Modell-Repository und der zugehörigen Transformers-API
Verwende Encoder-Modelle für Aufgaben wie semantische Analyse, Einbettung, Frage-Antwort und Zero-Shot-Klassifizierung
Verwendung von Decoder-Modellen zur Erzeugung von Sequenzen wie Code, unbegrenzten Antworten und Gesprächen
Verwendung von Zustandsmanagement- und Kompositionstechniken zur Steuerung von LLMs für eine sichere, effektive und genaue Konversation
Inhalte
Einführung
Triff den Ausbilder.
Erstelle ein Konto unter courses.nvidia.com/join
Vom Deep Learning zu großen Sprachmodellen
Lerne, wie große Sprachmodelle aufgebaut sind und wie man sie einsetzt:
Lerne Deep Learning und klassenbasiertes Denken kennen und erfahre, wie die Sprachmodellierung daraus hervorgeht.
Diskutiere Transformer-Architekturen, Schnittstellen und Intuitionen, sowie deren Skalierung und Veränderung, um moderne LLM-Lösungen zu entwickeln.
Spezialisierte Encoder-Modelle
Lerne, wie du die verschiedenen Aufgabenspezifikationen betrachten kannst:
Entdecke die modernsten HuggingFace-Encoder-Modelle.
Nutze bereits getunte Modelle für interessante Aufgaben wie Token-Klassifizierung, Sequenz-Klassifizierung, Bereichsvorhersage und Zero-Shot-Klassifizierung.
Encoder-Decoder-Modelle für Seq2Seq
Lerne die Vorhersage von LLMs für die Vorhersage von unbegrenzten Sequenzen kennen:
Stelle eine Decoder-Komponente für die autoregressive Texterzeugung vor.
Diskutiere Cross-Attention für Sequenz-als-Kontext-Formulierungen.
Erörtere allgemeine Ansätze für Multitasking und Zero-Shot Reasoning.
Einführung in multimodale Formulierungen für Sequenzen und Untersuchung einiger Beispiele.
Decodermodelle für die Texterzeugung
Erfahre mehr über reine Decoder-Modelle im GPT-Stil und wie sie spezifiziert und verwendet werden können:
Erforsche, wann ein reines Decoder-Modell sinnvoll ist, und sprich über Probleme bei der Bildung.
Diskutiere die Modellgröße, spezielle Einsatztechniken und Überlegungen.
Ziehe einige große Textgenerierungsmodelle heran und sieh dir an, wie sie funktionieren.
Zustandsabhängige LLMs
Lerne, wie man Sprachmodelle durch Kontextinjektion über stochastische Papageien erhebt:
Zeige moderne LLM-Kompositionstechniken für History- und State-Management.
Diskutiere Retrieval-augmented Generation (RAG) für den Zugriff auf die externe Umgebung.
Bewertung und Q&A
Überprüfe die wichtigsten Lerninhalte.
Nimm an einer codebasierten Prüfung teil, um ein Zertifikat zu erhalten.
Rapid Application Development Using Large Language Models: Zielgruppe
Datenbankspezialisten, Data Engineers, Softwareentwickler und technische Entscheidungstragende
Rapid Application Development Using Large Language Models: Voraussetzungen
Einführende Deep Learning-Kenntnisse, vorzugsweise Kenntnisse in PyTorch und Transfer Learning. Die Inhalte der DLI-Kurse Getting Started with Deep Learning oder Fundamentals of Deep Learning oder ähnliche Erfahrungen sind ausreichend. Fortgeschrittene Python-Kenntnisse, einschließlich objektorientierter Programmierung und Bibliotheken. Die Inhalte des Python Tutorials (w3schools.com) oder ähnliche Kenntnisse sind ausreichend.
Schulungen die dich interessieren könnten
Unternehmen in Deutschland, Österreich und der Schweiz, die uns vertrauen
Das sagen unsere Kunden
Wir arbeiten ständig daran uns zu verbessern. Dafür sind wir auf das Feedback unserer Kunden angewiesen.

Kompetentes Online-Training mit Learning by Doing. Besser geht nicht. Jeannette M.
Sehr gute Planung und Organisation aller Microsoft Office Schulungen. Incas Training ist sehr zu empfehlen! Christopher M.
Toller Service. Hatte auf Ihrer Seite KOSTENLOS den Weg gefunden, sämtliche Animationen mit einem Schritt zu entfernen. Hat super geklappt. Vielen lieben Dank dafür. Wenn ich schon nichts bezahlen muss, dann wenigstens eine passenden Bewertung :-) Thomas S.