<EbeneX/>
LLM Praxis · Updated 3. März 2026

Open-Weight-Modelle

Definition

KI-Modelle, deren trainierte Gewichte öffentlich verfügbar sind und lokal oder auf eigener Infrastruktur betrieben werden können – im Gegensatz zu proprietären Modellen wie GPT-4, die nur über APIs zugänglich sind.

Fortgeschritten 2 Min. Lesezeit EN: Open-Weight Models

Einfach erklärt

Open-Weight-Modelle sind KI-Modelle, bei denen du die trainierten Parameter (Gewichte) herunterladen und auf eigener Hardware betreiben kannst. Du bist nicht auf eine API angewiesen.

Das Spektrum von geschlossen bis offen:

Geschlossen          → → → → →          Offen
GPT-4    Claude    Gemini    Llama    OLMo
(nur API) (nur API) (API+Weight) (Weights) (Weights+Daten+Code)

Die wichtigsten Open-Weight-Modelle (2025/2026)

ModellAnbieterGrößenStärke
Llama 3.3Meta8B, 70BAllround, großes Ökosystem
Mistral LargeMistral AI7B, 22B, 123BEffizienz, europäisch
Gemma 2Google2B, 9B, 27BKlein und stark
Qwen 2.5Alibaba7B–72BMehrsprachig, Code
DeepSeek R1DeepSeek7B–671BReasoning
Phi-3Microsoft3.8B, 14BKompakt, effizient

Wann Open Weight vs. API?

AspektOpen WeightAPI (GPT-4, Claude)
Datenschutz✅ Volle Kontrolle⚠️ Daten gehen an Anbieter
Kosten (niedrig)❌ Infrastruktur nötig✅ Pay-per-Token
Kosten (hoch)✅ Günstiger ab ~1M Tokens/Tag❌ Wird teuer
Qualität (Top)⚠️ Knapp dahinter✅ Frontier-Modelle
AnpassbarkeitFine-Tuning, Merging⚠️ Eingeschränkt
Verfügbarkeit✅ Kein Vendor Lock-in⚠️ API-Abhängigkeit

Lokal betreiben

# Mit Ollama (einfachster Weg)
ollama pull llama3.3
ollama run llama3.3 "Erkläre Quantisierung in 3 Sätzen"

# Mit llama.cpp (maximale Kontrolle)
./llama-cli -m llama-3.3-8b-q4_k_m.gguf -p "Erkläre Quantisierung"

Quantisierung für Consumer-Hardware

QuantisierungSpeicher (7B)QualitätsverlustHardware
FP16~14 GBKeinerGPU 16+ GB
Q8~7 GBMinimalGPU 8+ GB
Q4_K_M~4 GBGeringGPU 6+ GB / CPU
Q2~2.5 GBSpürbarLaptop

Open-Weight-Modelle sind wie ein Rezept, bei dem du alle Zutaten und Mengenangaben bekommst, aber nicht die Küche, in der es entwickelt wurde. Du kannst das Gericht nachkochen und anpassen – aber du weißt nicht genau, wie jede einzelne Zutat ausgewählt wurde.

Gewichte sind öffentlich verfügbar – das Modell kann lokal betrieben werden

Nicht dasselbe wie Open Source: Trainingsdaten und -code oft nicht verfügbar

Llama (Meta), Mistral, Gemma (Google) und Qwen (Alibaba) als führende Beispiele

Datenschutz-konforme KI

Modelle lokal betreiben, sodass keine Daten an externe APIs gesendet werden

Custom Fine-Tuning

Modelle auf eigene Daten spezialisieren – ohne Einschränkungen der API-Anbieter

Kostenoptimierung

Bei hohem Volumen günstiger als API-Nutzung – nach anfänglicher Infrastruktur-Investition

Forschung

Modelle analysieren, modifizieren und Hypothesen über ihr Verhalten testen

Was ist der Unterschied zwischen Open Source und Open Weight?

Open Weight bedeutet: Die trainierten Modellgewichte sind verfügbar. Open Source würde zusätzlich bedeuten: Trainingsdaten, Trainingscode und Dokumentation sind vollständig offen. Die meisten 'Open'-Modelle (Llama, Mistral) sind Open Weight, aber nicht vollständig Open Source.

Kann ich Open-Weight-Modelle kommerziell nutzen?

Das hängt von der Lizenz ab. Llama 3 (Meta Community License) erlaubt kommerzielle Nutzung bis 700M monatliche Nutzer. Mistral und Gemma haben permissivere Lizenzen. Immer die Lizenz prüfen.

Sind Open-Weight-Modelle so gut wie GPT-4?

Die besten Open-Weight-Modelle (Llama 3.3 70B, Mistral Large, Qwen 2.5 72B) erreichen GPT-4-Niveau bei vielen Aufgaben. Bei Reasoning und komplexen Aufgaben haben proprietäre Modelle oft noch die Nase vorn.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.