API (Application Programming Interface)
Eine definierte Schnittstelle, über die Softwaresysteme miteinander kommunizieren können – der Standard für die Integration von KI-Diensten in Anwendungen.
Ein zentraler Einstiegspunkt für API-Anfragen, der Routing, Authentifizierung, Rate Limiting und andere Querschnittsfunktionen übernimmt.
Ein API Gateway ist der zentrale Einstiegspunkt für alle API-Anfragen. Statt dass Clients direkt mit vielen Backend-Services kommunizieren, geht alles durch das Gateway.
Warum ist das nützlich?
Ohne Gateway:
Client → Service A (Auth, Rate Limit, Logging)
Client → Service B (Auth, Rate Limit, Logging)
Client → Service C (Auth, Rate Limit, Logging)
= Jeder Service implementiert alles selbst 😰
Mit Gateway:
Client → [API Gateway] → Service A
→ Service B
→ Service C
= Zentrale Auth, Rate Limit, Logging 🎉
Typische Funktionen:
/users → User Service, /orders → Order ServiceInternet → [API Gateway] → [Service A]
→ [Service B]
→ [Service C]
→ [LLM Service]
Gateway-Funktionen:
├── SSL Termination
├── Authentication (JWT, API Key)
├── Rate Limiting
├── Request Routing
├── Load Balancing
├── Caching
├── Logging & Monitoring
└── Request/Response Transformation
# Kong Route Configuration
services:
- name: llm-service
url: http://llm-backend:8000
routes:
- name: llm-route
paths:
- /api/v1/chat
plugins:
- name: rate-limiting
config:
minute: 60
- name: key-auth
| Funktion | Nutzen für LLM |
|---|---|
| Rate Limiting | Kosten-Kontrolle, Fair Usage |
| API Keys | Nutzer-Tracking, Billing |
| Caching | Gleiche Prompts cachen |
| Logging | Prompt/Response für Debugging |
| Fallback | Backup-Modell bei Ausfall |
Ein API Gateway ist wie der Empfang eines großen Unternehmens: Alle Besucher kommen hier an, werden identifiziert, zum richtigen Büro geleitet und bei Bedarf abgewiesen – statt dass jede Abteilung ihre eigene Eingangstür hat.
Zentraler Einstiegspunkt für alle API-Anfragen
Übernimmt Authentifizierung, Rate Limiting, Routing
Entkoppelt Clients von der internen Service-Architektur
Microservices
Einheitlicher Zugang zu vielen Backend-Services
LLM-APIs
Rate Limiting und Kosten-Tracking für KI-Anfragen
Mobile Apps
Backend-for-Frontend Pattern mit API Gateway
Load Balancer verteilt Traffic auf mehrere Server (Layer 4/7). API Gateway arbeitet auf Anwendungsebene: Routing nach Pfad, Authentifizierung, Transformation, Rate Limiting. Oft werden beide kombiniert.
Empfehlenswert. Ein Gateway kann Rate Limiting (Kosten-Kontrolle), API-Key-Management, Request/Response-Logging und Fallback-Logik zentral implementieren.
Potenziell ja. Deshalb werden API Gateways hochverfügbar deployed (mehrere Instanzen, Load Balancing). Managed Services wie AWS API Gateway übernehmen das automatisch.