← Zurück zum Glossarmodels
Context Window
Das Context Window ist die maximale Menge an Text (gemessen in Tokens), die ein Sprachmodell auf einmal verarbeiten kann — typisch 128k bis 1M Tokens bei aktuellen Modellen.
Auch genannt: Kontext-Fenster
Im Detail
Das Window umfasst System-Prompt, Konversations-Historie, retrievte RAG-Dokumente und die aktuelle Anfrage. Größeres Window = mehr Kontext für bessere Antworten — aber auch mehr Kosten und Latenz.
Faustregel: 1 Token ≈ 0.75 deutsche Wörter. Ein 128k-Window fasst etwa ein 200-Seiten-Buch.
Verwandte Begriffe
- Fine-TuningFine-Tuning ist das Nachtrainieren eines bereits trainierten Sprachmodells auf eigenen Daten — verändert das Modell selbst, im Gegensatz zu RAG.
- LLMEin Large Language Model ist ein neuronales Netz, das auf Milliarden Texten trainiert wurde und Sprache versteht, generiert und transformiert. GPT-4, Claude und Mistral sind Beispiele.
- AuftragsverarbeitungEin Auftragsverarbeitungsvertrag (AVV) regelt rechtlich, wie ein Anbieter personenbezogene Daten im Auftrag des Kunden verarbeitet — DSGVO-Pflicht für jeden KI-Dienstleister.