Large Language Model (LLM)
Ein KI-Modell, das auf riesigen Textmengen trainiert wurde und menschenähnliche Sprache verstehen und generieren kann.
Das gezielte Nachtrainieren eines vortrainierten KI-Modells auf spezifische Daten oder Aufgaben, um es für einen bestimmten Einsatzzweck zu optimieren.
Fine-Tuning bedeutet, ein bereits trainiertes KI-Modell mit eigenen Daten weiterzutrainieren, um es für eine bestimmte Aufgabe zu spezialisieren. Statt ein Modell von Null aufzubauen, nutzt du das vorhandene Wissen und passt es an. Fine-Tuning ist der Kompromiss zwischen Prompt Engineering (kein Training, aber begrenzte Kontrolle) und vollständigem Training (maximale Kontrolle, aber extrem teuer). Es eignet sich besonders, wenn ein Modell konsistent in einem bestimmten Stil antworten soll oder domänenspezifisches Verhalten zeigen muss, das sich durch Prompts allein nicht zuverlässig steuern lässt. Techniken wie LoRA und QLoRA machen Fine-Tuning auch auf Consumer-Hardware möglich: Ein 7B-Modell kann mit einer RTX 3090 in wenigen Stunden fine-getuned werden. Für viele Anwendungsfälle ist Fine-Tuning heute die kosteneffizienteste Methode, ein Modell zu spezialisieren.
Warum Fine-Tuning?
Fine-Tuning vs. RAG vs. Prompt Engineering:
| Aspekt | Prompt Engineering | RAG | Fine-Tuning |
|---|---|---|---|
| Aufwand | Gering | Mittel | Hoch |
| Kosten | Niedrig | Mittel | Mittel-Hoch |
| Aktualität | Manuell | Automatisch | Erfordert Retraining |
| Stil/Verhalten | Begrenzt | Begrenzt | Sehr gut |
| Fachwissen | Im Prompt | In Datenbank | Im Modell |
Wann Fine-Tuning sinnvoll ist:
Full Fine-Tuning:
LoRA (Low-Rank Adaptation):
QLoRA (Quantized LoRA):
Adapter-Methoden:
1. Daten vorbereiten:
Beispiel-Datenformat:
{"messages": [
{"role": "system", "content": "Du bist ein technischer Redakteur."},
{"role": "user", "content": "Erkläre Docker in einem Satz."},
{"role": "assistant", "content": "Docker ist eine Plattform, die Anwendungen in isolierten Containern verpackt, sodass sie überall gleich laufen."}
]}
2. Hyperparameter wählen:
3. Training durchführen:
4. Evaluation:
Die Methode, mit der ChatGPT und Claude trainiert wurden:
Alternativen zu RLHF:
Fine-Tuning ist wie ein Allgemeinmediziner, der eine Facharztausbildung macht: Das Grundwissen ist bereits vorhanden, und durch spezialisiertes Training wird er zum Experten in einem bestimmten Bereich.
Passt ein vortrainiertes Modell an spezifische Aufgaben oder Domänen an
Deutlich günstiger und schneller als das Training eines Modells von Grund auf
Alternative zu RAG, wenn das Modell dauerhaft neues Verhalten lernen soll
Domänenanpassung
Ein LLM auf medizinische, juristische oder technische Fachsprache spezialisieren
Stil und Tonalität
Ein Modell an den Kommunikationsstil eines Unternehmens anpassen
Klassifikation
Ein Modell für spezifische Kategorisierungsaufgaben wie Sentiment-Analyse trainieren
Instruction Following
Ein Basismodell darauf trainieren, Anweisungen besser zu befolgen (RLHF)
Fine-Tuning eignet sich, wenn das Modell einen bestimmten Stil, Tonalität oder Verhaltensweise dauerhaft lernen soll. RAG ist besser für aktuelle, sich ändernde Informationen. Oft ist eine Kombination aus beiden am effektivsten.
Das hängt von der Aufgabe ab. Für einfache Stilanpassungen reichen oft 50-100 Beispiele. Für komplexe Domänenanpassungen sind 1.000-10.000+ hochwertige Beispiele empfehlenswert. Qualität ist wichtiger als Quantität.
Bei OpenAI ab ca. $8 pro 1M Training-Tokens. Eigenes Fine-Tuning mit Open-Source-Modellen erfordert GPU-Zugang (ab ca. $1/Stunde in der Cloud). LoRA/QLoRA reduziert die Hardware-Anforderungen erheblich.
Ja, das nennt sich 'Catastrophic Forgetting' – das Modell vergisst allgemeines Wissen beim Spezialisieren. Techniken wie LoRA und niedrige Learning Rates minimieren dieses Risiko.
Managed Fine-Tuning für GPT-Modelle über die OpenAI API
Parameter-Efficient Fine-Tuning Bibliothek (LoRA, QLoRA)
Benutzerfreundliches Tool für das Fine-Tuning von Open-Source-Modellen
Optimiertes Fine-Tuning mit 2x Geschwindigkeit und 60% weniger Speicher