Bestellung
Wenn Sie an diesem Seminar teilnehmen wollen, füllen Sie folgendes Formular aus.Die mit * gekennzeichneten Felder müssen ausgefüllt werden.
Large Language Models revolutionieren die Softwareentwicklung, scheitern jedoch oft an fehlendem Kontext zu internen Unternehmensdaten. Retrieval-Augmented Generation (RAG) in Kombination mit leistungsfähigen Vektordatenbanken schließt diese Lücke und gilt als Schlüsseltechnologie für ernsthafte KI-Anwendungen. In diesem Training entwickeln Sie skalierbare Architekturen, die generativer KI ein verlässliches Langzeitgedächtnis verleihen. Sie lernen, Embeddings effizient zu erzeugen, Indizes zu optimieren und Frameworks wie LangChain oder LlamaIndex produktiv einzusetzen. Verwandeln Sie statische Sprachmodelle in dynamische Wissenssysteme, die auf Ihre proprietären Daten zugreifen – halluzinationsarm, präzise und datenschutzkonform. Wir verzichten auf theoretischen Ballast und implementieren echte Pipelines.Grundlagen der Semantischen Suche
- Funktionsweise von High-Dimensional Vector Spaces
- Embeddings generieren (OpenAI, Hugging Face)
- Chunking-Strategien: Fixed-size vs. Semantisch
- Bedeutung von Cosine Similarity und Euclidean Distance
- Marktüberblick: Pinecone, Weaviate, Milvus, Qdrant
- Setup und Konfiguration einer Vektordatenbank
- Indizierungsalgorithmen (HNSW, IVF) verstehen
- Metadaten-Filterung für präzise Ergebnisse
- Architekturmuster für RAG-Applikationen
- Orchestrierung mit LangChain und LlamaIndex
- Prompt Engineering für kontextbezogene Antworten
- Vermeidung von Halluzinationen durch Grounding
- Hybrid Search: Keyword-basierte und semantische Suche kombinieren
- Re-Ranking Methoden für bessere Relevanz
- Query Expansion und Multi-Query Ansätze
- Parent-Child Document Retrieval
- RAGAS Framework zur Qualitätsmessung (Treue, Relevanz)
- Umgang mit Datenschutz und Datensicherheit
- Latenzoptimierung und Caching-Strategien
- Skalierung von Vektor-Indizes