Prompt Engineering
Die Kunst und Technik, Anweisungen für KI-Sprachmodelle so zu formulieren, dass sie optimale und zielgerichtete Ergebnisse liefern.
Die Fähigkeit von KI-Modellen, Aufgaben mit nur wenigen Beispielen (Few-Shot) oder ganz ohne Beispiele (Zero-Shot) zu lösen.
Few-Shot und Zero-Shot Learning beschreiben, wie gut ein KI-Modell neue Aufgaben lösen kann, ohne speziell dafür trainiert zu werden. Das ist eine der bemerkenswertesten Fähigkeiten moderner LLMs – und ein Hauptgrund, warum sie so vielseitig einsetzbar sind.
Zero-Shot bedeutet: Das Modell löst eine Aufgabe, für die es keine Beispiele gesehen hat – nur durch die Beschreibung der Aufgabe im Prompt. Few-Shot bedeutet: Das Modell bekommt zwei bis fünf Beispiele im Prompt und lernt das Muster sofort. Beide Ansätze funktionieren, weil große Sprachmodelle beim Pre-Training implizit gelernt haben, wie Aufgaben strukturiert sind. Sie müssen nicht neu trainiert werden – sie müssen nur richtig angesprochen werden.
Die Abstufungen:
| Methode | Beispiele | Beschreibung |
|---|---|---|
| Zero-Shot | 0 | Nur eine Anweisung, keine Beispiele |
| One-Shot | 1 | Ein einziges Beispiel |
| Few-Shot | 2-5 | Wenige Beispiele im Prompt |
| Fine-Tuning | 100+ | Viele Beispiele, Modell wird nachtrainiert |
Zero-Shot Beispiel:
Klassifiziere als positiv oder negativ:
"Das Produkt ist fantastisch!" → positiv
Few-Shot Beispiel:
Übersetze ins Formelle:
"Hey, schick mal die Datei" → "Könnten Sie mir bitte die Datei zusenden?"
"Yo, wann ist das Meeting?" → "Könnten Sie mir bitte den Termin des Meetings mitteilen?"
"Check mal den Code" → ?
Große LLMs haben während des Pre-Trainings implizit gelernt, Muster zu erkennen und zu generalisieren. Few-Shot-Beispiele im Prompt aktivieren dieses Wissen – das Modell erkennt das Muster und wendet es an.
Few-Shot Learning bei LLMs wird auch “In-Context Learning” genannt:
Zero-Shot ist wie ein Experte, der eine Aufgabe allein aus der Beschreibung versteht. Few-Shot ist wie ein schneller Lerner, der nach 2-3 Beispielen das Prinzip kapiert und es auf neue Fälle anwenden kann.
Zero-Shot: Das Modell löst eine Aufgabe ohne jegliche Beispiele, nur mit einer Anweisung
Few-Shot: Das Modell bekommt 2-5 Beispiele im Prompt und generalisiert daraus
Ermöglicht durch große vortrainierte Modelle, die breites Wissen mitbringen
Textklassifikation ohne Training
Ein LLM klassifiziert Kundenfeedback als positiv/negativ ohne spezifisches Training
Format-Konsistenz
Few-Shot-Beispiele im Prompt stellen sicher, dass Ausgaben ein bestimmtes Format haben
Neue Sprachen
LLMs können in Sprachen arbeiten, für die sie nur wenig Trainingsdaten hatten
Zero-Shot reicht für einfache, klar beschreibbare Aufgaben. Few-Shot ist besser, wenn du ein bestimmtes Ausgabeformat brauchst, die Aufgabe komplex ist oder Zero-Shot nicht die gewünschte Qualität liefert.
Typisch 2-5 Beispiele. Mehr Beispiele verbessern die Konsistenz, verbrauchen aber Tokens. Die Qualität der Beispiele ist wichtiger als die Anzahl.
Für viele Aufgaben ja. Few-Shot ist schneller und flexibler. Fine-Tuning lohnt sich, wenn du konstant hohe Qualität brauchst, Inferenz-Kosten senken willst oder das Modell dauerhaft neues Verhalten lernen soll.