Agent
Ein KI-System, das eigenständig Aufgaben plant, Entscheidungen trifft und Tools nutzt, um komplexe Ziele zu erreichen – über einfache Frage-Antwort-Interaktion hinaus.
Die Fähigkeit von Sprachmodellen, externe Werkzeuge und Funktionen aufzurufen – von Websuche über Code-Ausführung bis zu API-Aufrufen.
Tool Use ermöglicht es Sprachmodellen, über reinen Text hinauszugehen und echte Aktionen auszuführen. Statt zu sagen “Ich kann das nicht nachschlagen”, kann das Modell eine Websuche starten und aktuelle Informationen liefern.
Der Ablauf:
User: "Wie ist das Wetter in Berlin?"
↓
LLM: Erkennt → Tool "get_weather" aufrufen mit {"city": "Berlin"}
↓
System: Ruft Wetter-API auf → {"temp": 12, "condition": "bewölkt"}
↓
LLM: "In Berlin sind es aktuell 12°C bei bewölktem Himmel."
{
"name": "get_weather",
"description": "Gibt das aktuelle Wetter für eine Stadt zurück",
"parameters": {
"type": "object",
"properties": {
"city": {"type": "string", "description": "Name der Stadt"},
"unit": {"type": "string", "enum": ["celsius", "fahrenheit"]}
},
"required": ["city"]
}
}
Moderne Modelle können mehrere Tools gleichzeitig aufrufen:
Tool Use ist wie ein Handwerker, der weiß, wann er den Hammer, die Säge oder den Schraubenzieher braucht – das LLM erkennt, welches Werkzeug für die aktuelle Aufgabe am besten geeignet ist.
LLMs können strukturierte Funktionsaufrufe generieren statt nur Text
Ermöglicht Zugriff auf aktuelle Daten, Berechnungen und externe Systeme
Grundlage für KI-Agenten und automatisierte Workflows
Aktuelle Informationen
LLM ruft eine Websuche auf, um aktuelle Nachrichten oder Preise zu finden
Berechnungen
Mathematische Berechnungen an einen Code-Interpreter delegieren
Datenbankabfragen
LLM generiert SQL-Queries und ruft Datenbanken ab
Buchungen und Bestellungen
LLM ruft APIs auf, um Flüge zu buchen oder Bestellungen aufzugeben
Du definierst verfügbare Funktionen mit Namen, Beschreibung und Parametern (JSON Schema). Das LLM entscheidet, ob und welche Funktion aufgerufen werden soll, und gibt die Parameter als strukturiertes JSON zurück. Dein Code führt die Funktion aus und gibt das Ergebnis zurück.
Nein, nur die Funktionen, die du explizit definierst. Das LLM generiert den Funktionsaufruf, aber dein Code führt ihn aus. Du behältst die volle Kontrolle über die Ausführung.
Plugins (wie bei ChatGPT) sind vorgefertigte Integrationen. Tool Use / Function Calling ist die zugrundeliegende Technologie, mit der Entwickler eigene Tools definieren können.