Large Language Model (LLM)
Ein KI-Modell, das auf riesigen Textmengen trainiert wurde und menschenähnliche Sprache verstehen und generieren kann.
Große, auf breiten Daten vortrainierte KI-Modelle, die als Grundlage für viele verschiedene Anwendungen dienen – durch Fine-Tuning oder Prompting anpassbar.
Ein Foundation Model ist ein großes, auf riesigen Datenmengen vortrainiertes Modell, das als Basis für viele verschiedene Downstream-Aufgaben dient. Der Begriff wurde 2021 von Stanford geprägt und beschreibt Modelle wie GPT-5, Claude, Gemini oder BERT. Das Besondere: Ein einziges Modell kann durch Fine-Tuning oder Prompting für Dutzende verschiedene Aufgaben eingesetzt werden – Übersetzung, Zusammenfassung, Code-Generierung, Klassifikation. Das hat die KI-Entwicklung fundamental verändert.
Ein Foundation Model ist ein großes, vortrainiertes KI-Modell, das als Basis für viele verschiedene Anwendungen dient. Statt für jede Aufgabe ein neues Modell zu trainieren, passt man das Foundation Model an.
Warum ist das revolutionär?
Früher: Für jede Aufgabe ein eigenes Modell trainieren (teuer, langsam). Heute: Ein Foundation Model für viele Aufgaben nutzen (effizient, flexibel).
Beispiele:
| Modalität | Foundation Models |
|---|---|
| Text | GPT-5, Claude, Llama 4, Mistral Large 3 |
| Bild | DALL-E, Stable Diffusion, Midjourney |
| Audio | Whisper, Bark |
| Video | Sora, Runway |
| Multimodal | GPT-5, Gemini 3 |
Traditionell:
Aufgabe A → Daten sammeln → Modell trainieren → Modell A
Aufgabe B → Daten sammeln → Modell trainieren → Modell B
Aufgabe C → Daten sammeln → Modell trainieren → Modell C
Mit Foundation Models:
Riesige Daten → Foundation Model trainieren
↓
┌───────┼───────┐
↓ ↓ ↓
Aufgabe A B C
(Prompting/Fine-Tuning)
| Methode | Aufwand | Flexibilität | Kosten |
|---|---|---|---|
| Prompting | Minimal | Hoch | Niedrig |
| Few-Shot | Gering | Mittel | Niedrig |
| Fine-Tuning | Mittel | Hoch | Mittel |
| LoRA | Gering | Hoch | Niedrig |
Ein Foundation Model ist wie ein Hochschulabsolvent: Breite Grundausbildung in vielen Bereichen, kann dann für spezifische Jobs (Anwendungen) spezialisiert werden – schneller und besser als jemand ohne Vorbildung.
Auf riesigen, diversen Datensätzen vortrainiert
Kann für viele verschiedene Aufgaben angepasst werden
Beispiele: GPT-5, Claude, Llama 4, DALL-E, Whisper
Textgenerierung
GPT, Claude als Foundation für Chatbots, Assistenten, Content
Bildgenerierung
Stable Diffusion, DALL-E als Foundation für kreative Tools
Spezialisierte Anwendungen
Fine-Tuning für Medizin, Recht, Finanzen auf Basis von Foundation Models
LLM ist ein Typ von Foundation Model (für Sprache). Foundation Model ist der Oberbegriff und umfasst auch Bildmodelle (DALL-E), Audio (Whisper), Video und multimodale Modelle.
Weil sie das Fundament für viele Anwendungen bilden. Statt für jede Aufgabe ein Modell von Grund auf zu trainieren, baut man auf dem Foundation Model auf – durch Fine-Tuning oder Prompting.
Theoretisch ja, praktisch braucht es Millionen Dollar für Compute und Daten. Für die meisten Anwendungen ist es sinnvoller, existierende Foundation Models zu nutzen und anzupassen.