<EbeneX/>
LLM Praxis · Updated 3. März 2026

Chain-of-Thought

Definition

Eine Prompting-Technik, bei der das Modell aufgefordert wird, Schritt für Schritt zu denken – verbessert die Reasoning-Fähigkeiten von LLMs dramatisch.

Einsteiger 2 Min. Lesezeit EN: Chain-of-Thought Prompting

Einfach erklärt

Ohne Chain-of-Thought versucht ein LLM, direkt die Antwort zu geben. Mit CoT schreibt es seine Gedanken auf – und kommt dadurch zu besseren Ergebnissen.

Ohne CoT:

Frage: "Wenn 3 Hemden 5 Stunden zum Trocknen brauchen, 
        wie lange brauchen 9 Hemden?"
Antwort: "15 Stunden" ← Falsch!

Mit CoT:

Frage: "... Denke Schritt für Schritt."
Antwort: "Die Hemden trocknen parallel, nicht nacheinander.
         3 Hemden brauchen 5 Stunden.
         9 Hemden brauchen auch 5 Stunden (gleiche Wäscheleine).
         Antwort: 5 Stunden" ← Richtig!

Technischer Deep Dive

Varianten

  • Zero-Shot CoT: “Let’s think step by step” anhängen
  • Few-Shot CoT: Beispiele mit Lösungsweg im Prompt geben
  • Self-Consistency: Mehrere CoT-Pfade generieren, Mehrheitsentscheid
  • Tree of Thought: Verzweigte Denkpfade explorieren
  • ReAct: Reasoning + Acting kombinieren (Denken + Tool-Nutzung)

Wann hilft CoT?

  • ✅ Mathe, Logik, mehrstufige Probleme
  • ✅ Aufgaben die Planung erfordern
  • ❌ Einfache Fakten-Abfragen (unnötiger Overhead)
  • ❌ Kreative Aufgaben (CoT kann Kreativität einschränken)

Prompt-Beispiele

Zero-Shot CoT:

Frage: Ein Zug fährt um 9:00 los und braucht 2,5 Stunden. 
Wann kommt er an?

Denke Schritt für Schritt.

Few-Shot CoT:

Beispiel: 15 + 27 = ?
Schritt 1: 15 + 20 = 35
Schritt 2: 35 + 7 = 42
Antwort: 42

Jetzt du: 23 + 48 = ?

OpenAI o1 und internes Reasoning

OpenAIs o1-Modelle haben Chain-of-Thought “eingebaut”:

  • Das Modell denkt intern nach, bevor es antwortet
  • Der Denkprozess ist für den Nutzer nicht sichtbar
  • Deutlich bessere Ergebnisse bei komplexen Aufgaben
  • Höhere Kosten und Latenz als Standard-Modelle

Kosten-Nutzen-Abwägung

AspektOhne CoTMit CoT
TokensWeniger2-5x mehr
LatenzSchnellerLangsamer
Mathe-Aufgaben~50% korrekt~90% korrekt
Einfache FragenGutUnnötiger Overhead

Chain-of-Thought ist wie 'Zeig deinen Rechenweg' in der Mathe-Klausur: Wenn das Modell seine Gedanken aufschreibt, macht es weniger Fehler – weil es sich selbst durch das Problem führt.

Modell wird aufgefordert, Zwischenschritte explizit auszuformulieren

Verbessert Mathe, Logik und komplexes Reasoning erheblich

Zero-Shot CoT: Einfach 'Denke Schritt für Schritt' anhängen

Mathematische Probleme

Textaufgaben Schritt für Schritt lösen statt direkt die Antwort zu raten

Logisches Reasoning

Komplexe Schlussfolgerungen durch explizite Zwischenschritte

Code-Debugging

Fehler systematisch eingrenzen durch schrittweise Analyse

Entscheidungsfindung

Pro/Contra abwägen und Schlussfolgerung ableiten

Warum funktioniert Chain-of-Thought?

LLMs generieren Token für Token. Wenn sie Zwischenschritte aufschreiben, stehen diese als Kontext für die nächsten Tokens zur Verfügung. Das Modell kann auf seine eigenen Zwischenergebnisse zugreifen.

Kostet Chain-of-Thought mehr?

Ja, weil mehr Tokens generiert werden. Aber die Qualitätsverbesserung bei komplexen Aufgaben ist den Mehraufwand fast immer wert.

Welche Formulierung funktioniert am besten für Chain-of-Thought?

'Let's think step by step' ist der Klassiker. Alternativen: 'Erkläre deinen Denkprozess', 'Zeige deine Rechenschritte', oder 'Analysiere das Problem systematisch'. Bei Few-Shot: Beispiele MIT Zwischenschritten zeigen.

Kann Chain-of-Thought auch falsche Ergebnisse liefern?

Ja, das Modell kann überzeugend klingende, aber falsche Zwischenschritte generieren. CoT verbessert die Wahrscheinlichkeit korrekter Antworten, garantiert sie aber nicht. Bei kritischen Anwendungen: Ergebnisse immer verifizieren.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.