Anmeldung zum Seminar
Wenn Sie an diesem Seminar teilnehmen wollen, füllen Sie folgendes Formular aus.Die mit * gekennzeichneten Felder müssen ausgefüllt werden.
In diesem Kurs erhalten Sie einen tiefen Einblick in die Welt der Large Language Models (LLM). Von der Auswahl der richtigen Modelle, dem Training und der Anpassung an eigene Inhalt . Auch ein Vergleich der kommerziellen und Open Source Modelle als Basis steht auf der Agenda. Kursinhalte
Einführung in LLMs
- Funktionsweise
- Training
- Aufbau
- Anzahl der Parameter und deren praktische Auswirkungen
- Anforderungen an Server, Hardware und Infrastruktur (bei selbst gehosteten Open Source Modellen)
- LLMs mit eigenen Daten verwenden (Die 3 möglichen Varianten)
Marktübersicht und verschiedene LLMs im Einsatz und Vergleich
- Vergleich und Leistung kommerzieller Modelle, wie DeepSeek V3 und R1, GPT-4, GPT-4 Turbo, über Bard, Gemini, Bloom etc.
- Vergleich von Open Source Modellen und deren Einsetzbarkeit, Falcon, Llama 3, Mistral…
- Praxis-Test mit Prompts
- Vergleich: Reaktion der Modelle hinsichtlich Kreativität, Relevanz und Verständnis des Kontexts
- Bias testen: kontroverse Themen gezielt behandeln, um den Bias der Modelle aufzudecken
- Bewertungsbogen mit Kriterien: Kohärenz, Genauigkeit, Sprachfluss und zuvor herausgefundener Bias der Modelle in einem Ranking
- Welches Modell ist für welche Aufgaben am besten geeignet?
Anpassung und Erweiterung bestehender Modelle
- Briefing-Files
- Training an eigenen Daten
- Datenaufbereitung und Erstellung von knowledge Files
- Zahlreiche praktische Beispiele, z.B. AdBot für Anzeigen, Data Analyst GPT, Marketing GPT, Social Media Poster…
Komplett eigene LLMs trainieren (Wie entsteht ein LLM?)
- Ablauf zum Verständnis der Funktionsweise (Hoch komplex und noch nicht ohne sehr teure Hardware und teilweise Monate an Zeit vorführbar)
- Vor- und Nachteile eines eigenen LLMs
- Trainings-Daten
- Anforderungen an Hardware, Daten etc.
- Software-Stack
- MosaicML
- Architektur, Parameter…
- Hugging faces parquet Daten (Training)
- Databricks
- Transformer
- Tokenizer
- Fine-Tuning
- Model Evaluierung und Deployment..