Fine-Tuning
Das gezielte Nachtrainieren eines vortrainierten KI-Modells auf spezifische Daten oder Aufgaben, um es für einen bestimmten Einsatzzweck zu optimieren.
Ein Paradigma, bei dem ML-Modelle kontinuierlich aus neuen Daten lernen, ohne das zuvor Gelernte zu vergessen – eine der größten Herausforderungen in der KI.
Continual Learning (auch Lifelong Learning) ist die Fähigkeit von KI-Modellen, kontinuierlich neue Aufgaben zu lernen, ohne dabei das Wissen über frühere Aufgaben zu verlieren. Das klingt selbstverständlich – Menschen können das problemlos – ist aber eines der schwierigsten ungelösten Probleme in der KI. Das Hauptproblem heißt Catastrophic Forgetting: Wenn ein Modell auf neuen Daten trainiert wird, überschreibt es die Gewichte, die für alte Aufgaben wichtig waren.
Continual Learning ist das Ziel, dass KI-Modelle kontinuierlich lernen können, ohne das Alte zu vergessen. Das klingt selbstverständlich, ist aber eines der schwierigsten Probleme in der KI.
Das Problem: Catastrophic Forgetting
Modell trainiert auf Aufgabe A → Kann A gut ✓
Modell trainiert auf Aufgabe B → Kann B gut ✓, vergisst A ✗
Beispiel:
1. Training auf Katzen-Erkennung → 95% Accuracy
2. Training auf Hunde-Erkennung → 90% Accuracy für Hunde
→ 40% Accuracy für Katzen (vergessen!)
Warum passiert das?
Neuronale Netze speichern Wissen in Gewichten. Neue Aufgaben überschreiben diese Gewichte – das alte Wissen geht verloren.
| Strategie | Beschreibung | Beispiel |
|---|---|---|
| Replay | Alte Daten beim Training wiederholen | Experience Replay |
| Regularization | Wichtige Gewichte schützen | EWC, SI |
| Architecture | Separate Kapazität für neue Aufgaben | Progressive Networks |
| Knowledge Distillation | Altes Wissen destillieren | LwF |
# Vereinfacht: Wichtige Gewichte weniger ändern
loss = task_loss + λ * Σ F_i * (θ_i - θ*_i)²
# F_i = Fisher Information (wie wichtig ist Gewicht i für alte Aufgaben?)
# θ*_i = Optimale Gewichte nach altem Training
# λ = Regularisierungsstärke
| Szenario | Beschreibung |
|---|---|
| Task-Incremental | Neue Aufgaben, Task-ID bekannt |
| Domain-Incremental | Gleiche Aufgabe, neue Domänen |
| Class-Incremental | Neue Klassen zur Klassifikation |
| Online Learning | Kontinuierlicher Datenstrom |
Für viele Anwendungen ist RAG (Retrieval Augmented Generation) praktischer als echtes Continual Learning:
Statt: Modell neu trainieren für neues Wissen
Besser: Neues Wissen in Vektordatenbank, Modell bleibt gleich Continual Learning ist wie ein Mensch, der neue Sprachen lernt, ohne die alten zu vergessen – im Gegensatz zu den meisten KI-Modellen, die beim Lernen von Spanisch plötzlich ihr Französisch vergessen.
Modelle lernen aus neuen Daten ohne komplettes Retraining
Hauptproblem: Catastrophic Forgetting (altes Wissen geht verloren)
Wichtig für Systeme, die sich an verändernde Daten anpassen müssen
Personalisierung
Modelle, die sich an individuelle Nutzer anpassen
Sich ändernde Domänen
Fraud Detection, wo Betrugsmuster sich entwickeln
Edge Devices
On-Device Learning ohne Cloud-Retraining
Wenn ein neuronales Netz auf neue Daten trainiert wird, überschreibt es oft die Gewichte, die für alte Aufgaben wichtig waren. Das Modell 'vergisst' katastrophal, was es vorher konnte.
Fine-Tuning optimiert auf eine neue Aufgabe (altes Wissen kann verloren gehen). Continual Learning will neue Aufgaben lernen UND altes Wissen behalten – das ist viel schwieriger.
Begrenzt. LLMs werden meist einmal trainiert und dann eingefroren. Echtes Continual Learning für LLMs ist ein aktives Forschungsgebiet. RAG ist oft die praktischere Alternative für 'neues Wissen'.