← Zurück zum Glossarmodels
Fine-Tuning
Fine-Tuning ist das Nachtrainieren eines bereits trainierten Sprachmodells auf eigenen Daten — verändert das Modell selbst, im Gegensatz zu RAG.
Im Detail
Fine-Tuning passt sich an, wenn Sie:
- einen sehr spezifischen Stil brauchen (eigene Marke, juristisches Deutsch)
- ein kleineres Modell auf Spezialaufgaben trimmen wollen (Kosten)
- konsistentes Format für strukturierte Ausgaben brauchen
Wichtig: Fine-Tuning fügt kein Wissen hinzu — dafür ist RAG da. Wir empfehlen Fine-Tuning erst, wenn RAG plus Prompt-Engineering nicht reichen.
Verwandte Begriffe
- Context WindowDas Context Window ist die maximale Menge an Text (gemessen in Tokens), die ein Sprachmodell auf einmal verarbeiten kann — typisch 128k bis 1M Tokens bei aktuellen Modellen.
- LLMEin Large Language Model ist ein neuronales Netz, das auf Milliarden Texten trainiert wurde und Sprache versteht, generiert und transformiert. GPT-4, Claude und Mistral sind Beispiele.
- AuftragsverarbeitungEin Auftragsverarbeitungsvertrag (AVV) regelt rechtlich, wie ein Anbieter personenbezogene Daten im Auftrag des Kunden verarbeitet — DSGVO-Pflicht für jeden KI-Dienstleister.