Kursinformationen
Beschreibung
Sie lernen im kompakten Format, wie moderne LLM-Anwendungen aufgebaut und betrieben werden – von Prompt Design über RAG-Pipelines bis hin zu Deployment mit Docker, Monitoring und Governance. Der Kurs ist praxisnah und durchgängig hands-on.
Dieses Seminar ist ein Angebot der Hees Akademie Gruppe.
Zielgruppe / Teilnehmerkreis
Alle mit technischem Hintergrund, die an der Entwicklung, Integration oder dem Betrieb von LLM-basierten Anwendungen beteiligt sind – z.?B. in IT, AI, DevOps oder Produktentwicklung.
Anforderungen
Solide Kenntnisse in Python und Grundverständnis von API-Nutzung, Machine Learning oder Cloud-Infrastruktur sind erforderlich. Erfahrung mit Tools wie Jupyter, VS Code oder Docker ist hilfreich.
Dauer: 5 Tage
Inhalt
Grundlagen & Architektur moderner LLMs
- Überblick Transformer, Kontext, Tokenisierung
- Prompt Design (Zero-/Few-Shot, System Prompts)
- Unterschiede zu klassischen NLP-Verfahren
- Hands-on: effektive Prompts entwickeln
Retrieval-Augmented Generation (RAG) Essentials
- Rolle von Embeddings und Vektorsuche
- Praktische Arbeit mit FAISS, ChromaDB
- Integration externer Quellen über LangChain / LlamaIndex
- Aufbau einer einfachen RAG-Pipeline
Erweiterte RAG-Pipelines in der Praxis
- Datenvorbereitung & semantische Abfragen
- Tool-Ketten in LangChain
- Query-Antwort-System mit API-Anbindung
- Best Practices: Trennung von Modell- und Wissenskomponente
LLMOps – Deployment & Infrastruktur
- Deployment-Strategien: Hosted vs. On-Premise
- Containerisierung (Docker), Frameworks (FastAPI, BentoML)
- Monitoring & Logging (LangSmith, Weights & Biases, OpenTelemetry)
- Prompt- & Model-Management
LLMOps – Governance, Security & Skalierung
- Sicherheit (Prompt Injection, Datenschutz, Auditierbarkeit)
- Kostenkontrolle: Token-Tracking, Caching, Request-Management
- CI/CD für LLM-Anwendungen
Abschlussprojekt: Bau einer produktionsreifen Anwendung mit RAG, Logging, Monitoring & Guardrails