RAG
RAG (Retrieval-Augmented Generation) ist ein Verfahren, bei dem das Sprachmodell vor jeder Antwort relevante Dokumente aus Ihrer Wissensbasis sucht und diese als Grundlage für die Antwort nutzt — so antwortet der Agent immer aktuell und mit Quellenangabe.
Auch genannt: Retrieval-Augmented Generation
Im Detail
Sprachmodelle wissen nichts über Ihre Firma, Ihre Produkte oder Ihre Verträge — sie wurden auf öffentlichen Daten trainiert. RAG schließt diese Lücke:
- Wir indexieren Ihre Inhalte (PDFs, Hilfe-Center, Notion, FAQs) als Embeddings in einer Vector-Datenbank.
- Bei jeder Frage suchen wir die ähnlichsten Dokument-Stücke heraus.
- Die werden zusammen mit der Frage an das LLM geschickt — das antwortet auf Basis dieser konkreten Quellen.
Vorteil gegenüber Fine-Tuning: aktuell, günstiger, transparent (mit Quellenangabe), kein Training auf Kundeninhalten nötig.
Beispiel
Frage: „Wie lange ist die Garantie auf das Modell X-200?“ — RAG findet den passenden Abschnitt im Garantie-PDF, das LLM formuliert die Antwort mit Link auf das Original-PDF.
Verwandte Begriffe
- EmbeddingEin Embedding ist eine Zahlen-Repräsentation eines Texts (oder Bildes) in einem hochdimensionalen Raum, in dem ähnliche Inhalte nah beieinander liegen — die Grundlage für semantische Suche und RAG.
- Multi-AgentMulti-Agent bezeichnet eine Architektur, in der mehrere spezialisierte KI-Agenten zusammenarbeiten — ein Router entscheidet, wer übernimmt, und sie übergeben Aufgaben sauber untereinander.
- Tool UseTool Use (oder Function Calling) ist die Fähigkeit eines Sprachmodells, externe Funktionen mit strukturierten Argumenten aufzurufen — z.B. eine API, eine Datenbank-Abfrage oder einen Skill.