Chain-of-Thought
Eine Prompting-Technik, bei der das Modell aufgefordert wird, Schritt für Schritt zu denken – verbessert die Reasoning-Fähigkeiten von LLMs dramatisch.
Ein Prompting-Framework, das Reasoning (Denken) und Acting (Handeln) kombiniert – das LLM denkt laut nach, führt Aktionen aus und beobachtet die Ergebnisse.
ReAct steht für Reasoning + Acting – ein Framework, bei dem das LLM abwechselnd denkt und handelt. Es kombiniert das “laute Denken” von Chain-of-Thought mit der Fähigkeit, Tools zu nutzen.
Der ReAct-Zyklus:
Thought: Ich muss das aktuelle Wetter in Berlin herausfinden.
Action: get_weather("Berlin")
Observation: 18°C, sonnig
Thought: Der User fragte auch nach München. Das prüfe ich als nächstes.
Action: get_weather("München")
Observation: 15°C, bewölkt
Thought: Ich habe beide Wetterdaten. Jetzt kann ich antworten.
Answer: In Berlin sind es 18°C und sonnig, in München 15°C und bewölkt.
Warum ist das wichtig?
ReAct macht LLM-Entscheidungen nachvollziehbar und ermöglicht komplexe, mehrstufige Aufgaben mit Zwischenergebnissen.
Du bist ein hilfreicher Assistent mit Zugriff auf folgende Tools:
- search(query): Websuche durchführen
- calculator(expression): Mathematische Berechnung
- lookup(term): Begriff in Wissensdatenbank nachschlagen
Beantworte die Frage des Users. Nutze dieses Format:
Thought: [Dein Gedankengang]
Action: [tool_name(parameter)]
Observation: [Ergebnis der Aktion - wird vom System eingefügt]
... (wiederhole Thought/Action/Observation nach Bedarf)
Thought: Ich habe genug Informationen.
Answer: [Finale Antwort]
Frage: {user_question}
| Ansatz | Reasoning | Tool Use | Nachvollziehbarkeit |
|---|---|---|---|
| Direct Prompting | ❌ | ❌ | ❌ |
| Chain-of-Thought | ✅ | ❌ | ✅ |
| Function Calling | ❌ | ✅ | ❌ |
| ReAct | ✅ | ✅ | ✅ |
Lösungen: Max-Iterations-Limit, Tool-Validierung, Fallback zu direkter Antwort.
ReAct ist wie ein Detektiv, der laut denkt: 'Ich muss herausfinden, wer der Täter ist. Zuerst befrage ich den Zeugen. [Befragung] Der Zeuge sagt X. Das bedeutet, ich sollte als nächstes Y prüfen...'
Kombiniert Chain-of-Thought Reasoning mit Tool-Nutzung
Thought → Action → Observation Zyklus für komplexe Aufgaben
Grundlage für moderne Agent-Frameworks wie LangChain
Recherche-Agents
Agent sucht, liest, fasst zusammen und zieht Schlüsse
Komplexe Problemlösung
Mehrstufige Aufgaben mit Zwischenschritten und Verifikation
Interaktive Assistenten
Assistenten, die Tools nutzen und ihre Entscheidungen erklären
Chain-of-Thought ist reines Reasoning (Denken in Schritten). ReAct fügt Acting hinzu: Das Modell kann zwischen Denkschritten Aktionen ausführen (Tools aufrufen) und die Ergebnisse in sein Reasoning einbeziehen.
Bei Aufgaben, die externe Informationen oder Tools brauchen: Recherche, Datenanalyse, mehrstufige Berechnungen. Für reine Textgenerierung ist ReAct Overkill.
Zuverlässiger als einfache Prompts für komplexe Aufgaben, aber nicht perfekt. Das Modell kann in Schleifen geraten oder falsche Tools wählen. Guardrails und Limits sind wichtig.