<EbeneX/>
LLM Praxis · Updated 3. März 2026

Function Calling

Definition

Eine Fähigkeit moderner LLMs, strukturierte Funktionsaufrufe zu generieren, die externe Tools, APIs oder Datenbanken ansprechen können.

Fortgeschritten 2 Min. Lesezeit EN: Function Calling

Einfach erklärt

Function Calling ermöglicht LLMs, strukturierte Funktionsaufrufe zu generieren statt nur Text. Das Modell entscheidet, welche Funktion mit welchen Parametern aufgerufen werden soll – deine Anwendung führt sie aus.

Warum ist das wichtig?

Ohne Function Calling kann ein LLM nur Text ausgeben. Mit Function Calling kann es Aktionen auslösen: E-Mails senden, Termine buchen, Daten abfragen, Berechnungen durchführen.

Der Ablauf:

1. Du definierst verfügbare Funktionen (JSON Schema)
2. User fragt: "Wie ist das Wetter in Berlin?"
3. LLM generiert: {"name": "get_weather", "arguments": {"city": "Berlin"}}
4. Deine App ruft die Wetter-API auf
5. Ergebnis geht zurück ans LLM
6. LLM antwortet: "In Berlin sind es 18°C und sonnig."

Technischer Deep Dive

Funktionsdefinition

{
  "name": "get_weather",
  "description": "Ruft aktuelle Wetterdaten für eine Stadt ab",
  "parameters": {
    "type": "object",
    "properties": {
      "city": {
        "type": "string",
        "description": "Name der Stadt"
      },
      "unit": {
        "type": "string",
        "enum": ["celsius", "fahrenheit"],
        "default": "celsius"
      }
    },
    "required": ["city"]
  }
}

Parallel Function Calling

Moderne APIs unterstützen mehrere Funktionsaufrufe gleichzeitig:

User: "Wie ist das Wetter in Berlin und München?"
LLM: [
  {"name": "get_weather", "arguments": {"city": "Berlin"}},
  {"name": "get_weather", "arguments": {"city": "München"}}
]

Best Practices

  • Klare Beschreibungen: Je besser die Funktionsbeschreibung, desto zuverlässiger die Auswahl
  • Validierung: Alle Parameter vor Ausführung prüfen
  • Fehlerbehandlung: Was passiert, wenn die Funktion fehlschlägt?
  • Timeouts: Externe APIs können langsam sein – Timeouts setzen

Function Calling ist wie ein Assistent, der nicht nur Fragen beantwortet, sondern auch weiß, welches Werkzeug er für welche Aufgabe braucht – und dir sagt, wie du es benutzen sollst.

LLM generiert strukturierte JSON-Aufrufe statt nur Text

Ermöglicht Integration mit APIs, Datenbanken, Kalendern, etc.

Grundlage für Agents und Tool Use in modernen KI-Anwendungen

API-Integration

LLM ruft Wetter-API, Kalender oder CRM basierend auf Nutzeranfrage auf

Datenbank-Abfragen

Natürlichsprachliche Fragen werden in SQL-Queries übersetzt

Multi-Tool Agents

Agent wählt automatisch das richtige Tool für jede Teilaufgabe

Was ist der Unterschied zwischen Function Calling und Tool Use?

Die Begriffe werden oft synonym verwendet. Function Calling ist der technische Mechanismus (JSON-Schema für Funktionen), Tool Use ist das breitere Konzept (LLM nutzt externe Werkzeuge). In der Praxis meinen beide dasselbe.

Führt das LLM die Funktion selbst aus?

Nein. Das LLM generiert nur den Aufruf (welche Funktion mit welchen Parametern). Deine Anwendung führt die Funktion aus und gibt das Ergebnis zurück ans LLM.

Wie sicher ist Function Calling?

Das LLM kann beliebige Parameter generieren – auch schädliche. Validiere alle Eingaben, nutze Allowlists für erlaubte Funktionen und implementiere Least Privilege.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.