<EbeneX/>
LLM Grundlagen · Updated 17. Februar 2026

Few-Shot / Zero-Shot Learning

Definition

Die Fähigkeit von KI-Modellen, Aufgaben mit nur wenigen Beispielen (Few-Shot) oder ganz ohne Beispiele (Zero-Shot) zu lösen.

Einsteiger 2 Min. Lesezeit EN: Few-Shot / Zero-Shot Learning

Einfach erklärt

Few-Shot und Zero-Shot Learning beschreiben, wie gut ein KI-Modell neue Aufgaben lösen kann, ohne speziell dafür trainiert zu werden. Das ist eine der bemerkenswertesten Fähigkeiten moderner LLMs – und ein Hauptgrund, warum sie so vielseitig einsetzbar sind.

Zero-Shot bedeutet: Das Modell löst eine Aufgabe, für die es keine Beispiele gesehen hat – nur durch die Beschreibung der Aufgabe im Prompt. Few-Shot bedeutet: Das Modell bekommt zwei bis fünf Beispiele im Prompt und lernt das Muster sofort. Beide Ansätze funktionieren, weil große Sprachmodelle beim Pre-Training implizit gelernt haben, wie Aufgaben strukturiert sind. Sie müssen nicht neu trainiert werden – sie müssen nur richtig angesprochen werden.

Die Abstufungen:

MethodeBeispieleBeschreibung
Zero-Shot0Nur eine Anweisung, keine Beispiele
One-Shot1Ein einziges Beispiel
Few-Shot2-5Wenige Beispiele im Prompt
Fine-Tuning100+Viele Beispiele, Modell wird nachtrainiert

Zero-Shot Beispiel:

Klassifiziere als positiv oder negativ:
"Das Produkt ist fantastisch!" → positiv

Few-Shot Beispiel:

Übersetze ins Formelle:
"Hey, schick mal die Datei" → "Könnten Sie mir bitte die Datei zusenden?"
"Yo, wann ist das Meeting?" → "Könnten Sie mir bitte den Termin des Meetings mitteilen?"
"Check mal den Code" → ?

Technischer Deep Dive

Warum funktioniert es?

Große LLMs haben während des Pre-Trainings implizit gelernt, Muster zu erkennen und zu generalisieren. Few-Shot-Beispiele im Prompt aktivieren dieses Wissen – das Modell erkennt das Muster und wendet es an.

In-Context Learning

Few-Shot Learning bei LLMs wird auch “In-Context Learning” genannt:

  • Das Modell lernt nicht im klassischen Sinne (keine Gewichtsänderung)
  • Es nutzt die Beispiele als Kontext für die Vorhersage
  • Die Fähigkeit skaliert mit der Modellgröße

Best Practices

  • Diverse Beispiele: Verschiedene Fälle abdecken
  • Konsistentes Format: Alle Beispiele gleich strukturieren
  • Relevante Beispiele: Ähnlich zur tatsächlichen Aufgabe
  • Reihenfolge beachten: Die letzten Beispiele haben oft mehr Einfluss

Zero-Shot ist wie ein Experte, der eine Aufgabe allein aus der Beschreibung versteht. Few-Shot ist wie ein schneller Lerner, der nach 2-3 Beispielen das Prinzip kapiert und es auf neue Fälle anwenden kann.

Zero-Shot: Das Modell löst eine Aufgabe ohne jegliche Beispiele, nur mit einer Anweisung

Few-Shot: Das Modell bekommt 2-5 Beispiele im Prompt und generalisiert daraus

Ermöglicht durch große vortrainierte Modelle, die breites Wissen mitbringen

Textklassifikation ohne Training

Ein LLM klassifiziert Kundenfeedback als positiv/negativ ohne spezifisches Training

Format-Konsistenz

Few-Shot-Beispiele im Prompt stellen sicher, dass Ausgaben ein bestimmtes Format haben

Neue Sprachen

LLMs können in Sprachen arbeiten, für die sie nur wenig Trainingsdaten hatten

Wann nutze ich Few-Shot statt Zero-Shot?

Zero-Shot reicht für einfache, klar beschreibbare Aufgaben. Few-Shot ist besser, wenn du ein bestimmtes Ausgabeformat brauchst, die Aufgabe komplex ist oder Zero-Shot nicht die gewünschte Qualität liefert.

Wie viele Beispiele braucht Few-Shot?

Typisch 2-5 Beispiele. Mehr Beispiele verbessern die Konsistenz, verbrauchen aber Tokens. Die Qualität der Beispiele ist wichtiger als die Anzahl.

Ersetzt Few-Shot Learning das Fine-Tuning?

Für viele Aufgaben ja. Few-Shot ist schneller und flexibler. Fine-Tuning lohnt sich, wenn du konstant hohe Qualität brauchst, Inferenz-Kosten senken willst oder das Modell dauerhaft neues Verhalten lernen soll.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.