<EbeneX/>
LLM Grundlagen · Updated 3. März 2026

Zero-Shot Learning

Definition

Die Fähigkeit eines Modells, Aufgaben zu lösen, für die es keine spezifischen Trainingsbeispiele gesehen hat – eine Schlüsseleigenschaft moderner Foundation Models und LLMs.

Fortgeschritten 2 Min. Lesezeit EN: Zero-Shot Learning

Einfach erklärt

Zero-Shot Learning bedeutet, dass ein Modell eine Aufgabe lösen kann, ohne dafür spezifisch trainiert worden zu sein. Es reicht, die Aufgabe in natürlicher Sprache zu beschreiben.

Die drei Lern-Modi:

Zero-Shot:  "Klassifiziere: 'Tolles Produkt!' → ?"
            Modell: "Positiv" ✓

One-Shot:   "Beispiel: 'Furchtbar' → Negativ.
             Klassifiziere: 'Tolles Produkt!' → ?"
            Modell: "Positiv" ✓

Few-Shot:   "Beispiele:
             'Furchtbar' → Negativ
             'Super!' → Positiv
             'Geht so' → Neutral
             Klassifiziere: 'Tolles Produkt!' → ?"
            Modell: "Positiv" ✓

Warum das funktioniert

Foundation Models haben im Pre-Training implizites Aufgabenwissen erworben:

Was das Modell im Pre-Training gesehen hatWas es daraus ableiten kann
Millionen Produktbewertungen mit SternenSentiment-Analyse
Parallele Texte in vielen SprachenÜbersetzung
Wikipedia-KategorisierungenText-Klassifikation
Frage-Antwort-FormateQuestion Answering

Zero-Shot vs. Fine-Tuning

AspektZero-ShotFine-Tuning
Daten nötigKeineHunderte bis Tausende
KostenNur InferenzTraining + Inferenz
FlexibilitätHoch (jede Aufgabe)Niedrig (spezialisiert)
GenauigkeitGutSehr gut
Setup-ZeitMinutenStunden bis Tage

Faustregel: Starte mit Zero-Shot, probiere Few-Shot wenn nötig, Fine-Tune nur wenn die Genauigkeit für den Anwendungsfall nicht reicht.

Zero-Shot Learning ist wie ein Mensch, der noch nie einen Delfin gesehen hat, aber aus der Beschreibung 'Säugetier, lebt im Wasser, grau, intelligent' sofort einen erkennen kann – weil er genug über die Welt weiß, um neue Konzepte abzuleiten.

Keine aufgabenspezifischen Beispiele nötig – nur eine Beschreibung der Aufgabe

Möglich durch das breite Weltwissen aus dem Pre-Training

Grundlage für die Vielseitigkeit von GPT-4, Claude und anderen LLMs

Textklassifikation

Texte in beliebige Kategorien einordnen, ohne Trainingsbeispiele pro Kategorie

Sprachübersetzung

Übersetzen in Sprachen, für die wenig parallele Trainingsdaten existieren

Sentiment-Analyse

Stimmung erkennen mit nur einer Prompt-Instruktion statt tausenden gelabelten Beispielen

Was ist der Unterschied zwischen Zero-Shot und Few-Shot?

Bei Zero-Shot gibst du nur die Aufgabenbeschreibung ('Klassifiziere als positiv oder negativ'). Bei Few-Shot gibst du zusätzlich 2–5 Beispiele. Few-Shot ist oft genauer, Zero-Shot ist flexibler und braucht weniger Vorbereitung.

Warum funktioniert Zero-Shot überhaupt?

Weil große Sprachmodelle im Pre-Training Milliarden von Texten gelesen haben, in denen ähnliche Aufgaben vorkommen. Das Modell hat implizit gelernt, was 'Klassifiziere' oder 'Übersetze' bedeutet – auch ohne explizite Beispiele.

Wann reicht Zero-Shot nicht aus?

Bei sehr spezifischen Domänen (Fachsprache, Unternehmens-Terminologie), ungewöhnlichen Aufgabenformaten oder wenn höchste Genauigkeit nötig ist. Dann hilft Few-Shot, Fine-Tuning oder RAG.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.