<EbeneX/>
LLM Grundlagen · Updated 3. März 2026

Foundation Model

Definition

Große, auf breiten Daten vortrainierte KI-Modelle, die als Grundlage für viele verschiedene Anwendungen dienen – durch Fine-Tuning oder Prompting anpassbar.

Einsteiger 2 Min. Lesezeit EN: Foundation Model

Einfach erklärt

Ein Foundation Model ist ein großes, auf riesigen Datenmengen vortrainiertes Modell, das als Basis für viele verschiedene Downstream-Aufgaben dient. Der Begriff wurde 2021 von Stanford geprägt und beschreibt Modelle wie GPT-5, Claude, Gemini oder BERT. Das Besondere: Ein einziges Modell kann durch Fine-Tuning oder Prompting für Dutzende verschiedene Aufgaben eingesetzt werden – Übersetzung, Zusammenfassung, Code-Generierung, Klassifikation. Das hat die KI-Entwicklung fundamental verändert.

Ein Foundation Model ist ein großes, vortrainiertes KI-Modell, das als Basis für viele verschiedene Anwendungen dient. Statt für jede Aufgabe ein neues Modell zu trainieren, passt man das Foundation Model an.

Warum ist das revolutionär?

Früher: Für jede Aufgabe ein eigenes Modell trainieren (teuer, langsam). Heute: Ein Foundation Model für viele Aufgaben nutzen (effizient, flexibel).

Beispiele:

ModalitätFoundation Models
TextGPT-5, Claude, Llama 4, Mistral Large 3
BildDALL-E, Stable Diffusion, Midjourney
AudioWhisper, Bark
VideoSora, Runway
MultimodalGPT-5, Gemini 3

Technischer Deep Dive

Das Foundation Model Paradigma

Traditionell:
Aufgabe A → Daten sammeln → Modell trainieren → Modell A
Aufgabe B → Daten sammeln → Modell trainieren → Modell B
Aufgabe C → Daten sammeln → Modell trainieren → Modell C

Mit Foundation Models:
Riesige Daten → Foundation Model trainieren

              ┌───────┼───────┐
              ↓       ↓       ↓
           Aufgabe A  B       C
           (Prompting/Fine-Tuning)

Eigenschaften

  • Scale: Milliarden bis Billionen Parameter
  • Generalist: Kann viele Aufgaben ohne spezifisches Training
  • Adaptierbar: Durch Prompting oder Fine-Tuning spezialisierbar
  • Emergent Abilities: Fähigkeiten, die erst bei großer Skala erscheinen

Anpassungsmethoden

MethodeAufwandFlexibilitätKosten
PromptingMinimalHochNiedrig
Few-ShotGeringMittelNiedrig
Fine-TuningMittelHochMittel
LoRAGeringHochNiedrig

Risiken und Herausforderungen

  • Bias: Foundation Models übernehmen Bias aus Trainingsdaten
  • Halluzinationen: Erfinden plausibel klingende Falschinformationen
  • Sicherheit: Können für schädliche Zwecke missbraucht werden
  • Abhängigkeit: Wenige Anbieter kontrollieren die wichtigsten Modelle

Ein Foundation Model ist wie ein Hochschulabsolvent: Breite Grundausbildung in vielen Bereichen, kann dann für spezifische Jobs (Anwendungen) spezialisiert werden – schneller und besser als jemand ohne Vorbildung.

Auf riesigen, diversen Datensätzen vortrainiert

Kann für viele verschiedene Aufgaben angepasst werden

Beispiele: GPT-5, Claude, Llama 4, DALL-E, Whisper

Textgenerierung

GPT, Claude als Foundation für Chatbots, Assistenten, Content

Bildgenerierung

Stable Diffusion, DALL-E als Foundation für kreative Tools

Spezialisierte Anwendungen

Fine-Tuning für Medizin, Recht, Finanzen auf Basis von Foundation Models

Was ist der Unterschied zwischen Foundation Model und LLM?

LLM ist ein Typ von Foundation Model (für Sprache). Foundation Model ist der Oberbegriff und umfasst auch Bildmodelle (DALL-E), Audio (Whisper), Video und multimodale Modelle.

Warum heißen sie 'Foundation' Models?

Weil sie das Fundament für viele Anwendungen bilden. Statt für jede Aufgabe ein Modell von Grund auf zu trainieren, baut man auf dem Foundation Model auf – durch Fine-Tuning oder Prompting.

Kann ich mein eigenes Foundation Model trainieren?

Theoretisch ja, praktisch braucht es Millionen Dollar für Compute und Daten. Für die meisten Anwendungen ist es sinnvoller, existierende Foundation Models zu nutzen und anzupassen.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.