<EbeneX/>
Grundlagen Architektur · Updated 3. März 2026

Continual Learning

Definition

Ein Paradigma, bei dem ML-Modelle kontinuierlich aus neuen Daten lernen, ohne das zuvor Gelernte zu vergessen – eine der größten Herausforderungen in der KI.

Experte 2 Min. Lesezeit EN: Continual Learning / Lifelong Learning

Einfach erklärt

Continual Learning (auch Lifelong Learning) ist die Fähigkeit von KI-Modellen, kontinuierlich neue Aufgaben zu lernen, ohne dabei das Wissen über frühere Aufgaben zu verlieren. Das klingt selbstverständlich – Menschen können das problemlos – ist aber eines der schwierigsten ungelösten Probleme in der KI. Das Hauptproblem heißt Catastrophic Forgetting: Wenn ein Modell auf neuen Daten trainiert wird, überschreibt es die Gewichte, die für alte Aufgaben wichtig waren.

Continual Learning ist das Ziel, dass KI-Modelle kontinuierlich lernen können, ohne das Alte zu vergessen. Das klingt selbstverständlich, ist aber eines der schwierigsten Probleme in der KI.

Das Problem: Catastrophic Forgetting

Modell trainiert auf Aufgabe A → Kann A gut ✓
Modell trainiert auf Aufgabe B → Kann B gut ✓, vergisst A ✗

Beispiel:
1. Training auf Katzen-Erkennung → 95% Accuracy
2. Training auf Hunde-Erkennung → 90% Accuracy für Hunde
                                 → 40% Accuracy für Katzen (vergessen!)

Warum passiert das?

Neuronale Netze speichern Wissen in Gewichten. Neue Aufgaben überschreiben diese Gewichte – das alte Wissen geht verloren.

Technischer Deep Dive

Strategien gegen Catastrophic Forgetting

StrategieBeschreibungBeispiel
ReplayAlte Daten beim Training wiederholenExperience Replay
RegularizationWichtige Gewichte schützenEWC, SI
ArchitectureSeparate Kapazität für neue AufgabenProgressive Networks
Knowledge DistillationAltes Wissen destillierenLwF

Elastic Weight Consolidation (EWC)

# Vereinfacht: Wichtige Gewichte weniger ändern
loss = task_loss + λ * Σ F_i * (θ_i - θ*_i)²

# F_i = Fisher Information (wie wichtig ist Gewicht i für alte Aufgaben?)
# θ*_i = Optimale Gewichte nach altem Training
# λ = Regularisierungsstärke

Continual Learning Szenarien

SzenarioBeschreibung
Task-IncrementalNeue Aufgaben, Task-ID bekannt
Domain-IncrementalGleiche Aufgabe, neue Domänen
Class-IncrementalNeue Klassen zur Klassifikation
Online LearningKontinuierlicher Datenstrom

Praktische Alternative: RAG

Für viele Anwendungen ist RAG (Retrieval Augmented Generation) praktischer als echtes Continual Learning:

Statt: Modell neu trainieren für neues Wissen
Besser: Neues Wissen in Vektordatenbank, Modell bleibt gleich

Continual Learning ist wie ein Mensch, der neue Sprachen lernt, ohne die alten zu vergessen – im Gegensatz zu den meisten KI-Modellen, die beim Lernen von Spanisch plötzlich ihr Französisch vergessen.

Modelle lernen aus neuen Daten ohne komplettes Retraining

Hauptproblem: Catastrophic Forgetting (altes Wissen geht verloren)

Wichtig für Systeme, die sich an verändernde Daten anpassen müssen

Personalisierung

Modelle, die sich an individuelle Nutzer anpassen

Sich ändernde Domänen

Fraud Detection, wo Betrugsmuster sich entwickeln

Edge Devices

On-Device Learning ohne Cloud-Retraining

Was ist Catastrophic Forgetting?

Wenn ein neuronales Netz auf neue Daten trainiert wird, überschreibt es oft die Gewichte, die für alte Aufgaben wichtig waren. Das Modell 'vergisst' katastrophal, was es vorher konnte.

Wie unterscheidet sich Continual Learning von Fine-Tuning?

Fine-Tuning optimiert auf eine neue Aufgabe (altes Wissen kann verloren gehen). Continual Learning will neue Aufgaben lernen UND altes Wissen behalten – das ist viel schwieriger.

Können LLMs Continual Learning?

Begrenzt. LLMs werden meist einmal trainiert und dann eingefroren. Echtes Continual Learning für LLMs ist ein aktives Forschungsgebiet. RAG ist oft die praktischere Alternative für 'neues Wissen'.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.