Kursinformationen
Beschreibung
In diesem Seminar erfahren Sie, wie Sie moderne Sprachmodelle produktiv einsetzen. Sie kombinieren LLMs mit externen Datenquellen über RAG-Techniken, nutzen Vektorsuchen und optimieren die Antwortqualität durch gezieltes Prompt Design.
Mit Tools wie LangChain, FAISS und LlamaIndex entwickeln Sie eigene Pipelines, die skalierbar, modular und produktionsnah sind. So machen Sie generative KI anwendungsreif.
Hinweis:
Dieses Seminar ist ein Angebot der Hees Akademie Gruppe.
Zielgruppe / Teilnehmerkreis
Ideal für technisch versierte Teilnehmende, die Sprachmodelle über RAG-Architekturen produktiv nutzen und mit bestehenden Datenquellen verknüpfen möchten.
Anforderungen
Gute Python-Kenntnisse und Erfahrung mit Datenverarbeitung oder API-Nutzung. Kenntnisse in NLP oder Machine Learning sind hilfreich, aber nicht zwingend erforderlich.
Dauer: 3 Tage
Inhalt
Architektur und Grundlagen moderner LLMs
- Überblick über Transformer-Modelle
- Unterschiede zu klassischen NLP-Verfahren
- Rolle von Kontext und Tokenisierung
Prompt Design und Modellsteuerung
- Struktur effektiver Prompts
- Few-/Zero-Shot-Techniken
- System-Prompts für mehr Kontrolle
Grundlagen von Retrieval-Augmented Generation (RAG)
- Trennung von Modell- und Wissenskomponente
- Nutzen für domänenspezifische Anwendungen
Vektorsuche und Embedding-Verwaltung
- Embedding-Erstellung mit Hugging Face
- Ähnlichkeitssuche mit FAISS und ChromaDB
- semantische Datenabfragen
LangChain und LlamaIndex im Einsatz
- Aufbau modularer NLP-Pipelines
- Integration externer Quellen
- Dokumentensuche
- Tool-Ketten
Eigene RAG-Pipeline entwickeln
- Datenvorbereitung
- Query-Antwort-System mit LangChain
- API-Anbindung für produktionsnahe Lösungen