Die KI-Technologie-Landschaft verstehen
Wer macht was in der KI-Welt – und was davon ist Hype, was ist real?
Von Foundation Models bis KI-Agenten: Ein strukturierter Überblick über die wichtigsten KI-Technologien, Player und Trends – ohne Vorkenntnisse verständlich erklärt.
Die vier Ebenen der KI-Technologie
KI ist kein einzelnes Produkt – es ist ein Stapel von Technologien, die aufeinander aufbauen. Wer die Ebenen versteht, versteht auch warum bestimmte Unternehmen so mächtig sind.
Ebene 4: Anwendungen ChatGPT, Copilot, Midjourney, Cursor, Perplexity
↑
Ebene 3: Plattformen Azure OpenAI, Google Vertex AI, AWS Bedrock, Hugging Face
↑
Ebene 2: Modelle GPT-5, Claude 4.6, Gemini 3, Llama 4, Mistral Large 3
↑
Ebene 1: Infrastruktur NVIDIA Blackwell GPUs, Google TPUs, AMD MI300X, Cloud (AWS/Azure/GCP)
Warum das wichtig ist: Wer auf Ebene 1 dominiert, hat strukturellen Vorteil auf allen Ebenen darüber. NVIDIA kontrolliert die Chips → alle anderen sind abhängig.
Die wichtigsten Player
Infrastruktur: NVIDIA dominiert
NVIDIA hat mit ~80% Marktanteil bei KI-Chips eine Quasi-Monopolstellung. Die Blackwell-Generation (B200, GB200) ist seit Februar 2026 in Volumenproduktion und löst die H100-Generation ab. Konkurrenten:
- AMD (MI300X): Aufholend, gute Software-Unterstützung verbessert sich
- Google (TPU v6): Nur intern und über Google Cloud verfügbar
- Intel (Gaudi 3): Noch weit hinter NVIDIA
Cloud: Die drei Hyperscaler
AWS, Microsoft Azure und Google Cloud bieten KI-Infrastruktur als Service – und sind gleichzeitig Investoren in die führenden KI-Unternehmen:
| Cloud | KI-Investment | Eigene Modelle | KI-Plattform |
|---|---|---|---|
| Microsoft Azure | OpenAI ($13B+) | Phi-4 (klein, effizient) | Azure OpenAI Service |
| Google Cloud | Anthropic ($2B+) | Gemini 3, Gemma | Vertex AI |
| AWS | Anthropic ($8B+) | Titan, Nova | Amazon Bedrock |
Modell-Anbieter: Das Duopol
OpenAI (GPT-5, GPT-5.3-Codex) und Anthropic (Claude Opus 4.6, Sonnet 4.6) dominieren den Markt für leistungsfähige Closed-Source-Modelle. Dahinter:
- Google DeepMind (Gemini 3): Stark bei Multimodalität, Mathe und Google-Integration
- Meta (Llama 4): Führend bei Open Source – Llama 4 Maverick konkurriert mit Frontier-Modellen
- Mistral AI (Mistral Large 3, Ministral 3): Europäisch, effizient, Open Source (Apache 2.0)
- xAI (Grok): Elon Musks Antwort auf ChatGPT, integriert in X/Twitter
Das europäische Ökosystem
Europa hat aufgeholt – Mistral Large 3 konkurriert mit Frontier-Modellen:
- Mistral AI (Frankreich): Technisch stark, Open-Source-Fokus
- Aleph Alpha (Deutschland): Fokus auf Datensouveränität und Behörden
- AI Act (EU-Regulierung): Europa setzt den globalen Regulierungsrahmen
Open Source vs. Closed Source
Eine der wichtigsten strategischen Entscheidungen im KI-Ökosystem:
| Open Source | Closed Source | |
|---|---|---|
| Beispiele | Llama 4, Mistral Large 3, Gemma | GPT-5, Claude 4.6, Gemini 3 |
| Kosten | Nur Infrastruktur | Pay-per-use |
| Datenschutz | Vollständig lokal möglich | Daten gehen an Anbieter |
| Anpassbarkeit | Fine-Tuning, Modifikation | Nur Prompt Engineering |
| Qualität | Nahe an Closed Source (MoE-Modelle) | Meist noch besser (frontier) |
| Support | Community | Kommerziell |
| Kontrolle | Vollständig | Abhängig vom Anbieter |
Wann Open Source:
- Datenschutz ist kritisch (Gesundheit, Finanzen, Behörden)
- Hohe Volumen machen API-Kosten prohibitiv
- Spezifisches Fine-Tuning nötig
- Volle Kontrolle über Deployment
Wann Closed Source:
- Beste Qualität für komplexe Aufgaben
- Schneller Einstieg ohne Infrastruktur
- Multimodalität (GPT-5, Gemini 3)
- Kein eigenes ML-Team
Technologie-Trends 2026
Multimodalität: Text, Bild, Audio, Video
Moderne Frontier-Modelle verarbeiten nicht mehr nur Text. GPT-5, Gemini 3 und Llama 4 können gleichzeitig Text, Bilder, Audio und Video verstehen und generieren.
Praktische Anwendungen:
- Dokumente mit Diagrammen analysieren
- Screenshots beschreiben und Fehler finden
- Gesprochene Sprache direkt verarbeiten (ohne separates STT-Modell)
- Produktbilder für E-Commerce beschreiben
KI-Agenten: Autonome Aufgabenausführung
KI-Agenten sind Systeme die nicht nur antworten, sondern eigenständig Aufgaben ausführen: Web-Recherche, Code schreiben und ausführen, E-Mails senden, Formulare ausfüllen.
Klassisches LLM: User fragt → Modell antwortet → fertig
KI-Agent: User gibt Ziel → Agent plant → führt Schritte aus → prüft Ergebnis → iteriert
Aktueller Stand: Agenten funktionieren gut für klar definierte, reversible Aufgaben. Für kritische Prozesse (Finanztransaktionen, medizinische Entscheidungen) noch nicht produktionsreif – zu viele Halluzinationen und unerwartete Abweichungen.
Wichtige Frameworks: LangChain, LlamaIndex, AutoGen (Microsoft), CrewAI.
Reasoning-Modelle: Langsam denken für schwere Probleme
Reasoning ist inzwischen in die Hauptmodelle integriert: GPT-5 hat Thinking eingebaut, Claude 4.6 nutzt Adaptive Thinking, und Gemini 3 bietet Deep Think. Die Modelle entscheiden selbst, wie viel Denkzeit eine Aufgabe braucht.
Standard-LLM: Frage → sofortige Antwort (schnell, manchmal falsch)
Reasoning: Frage → internes Denken (Sekunden bis Minuten) → Antwort (langsamer, genauer)
Wann sinnvoll: Mathematik, komplexe Logik, mehrstufige Planung, Code-Debugging. Für einfache Aufgaben überdimensioniert und teurer.
Edge-KI: Modelle auf dem Gerät
Statt Anfragen in die Cloud zu schicken, laufen kleine Modelle direkt auf dem Gerät – Smartphone, Laptop, IoT-Sensor.
- Apple Intelligence: Eigene und Llama-basierte Modelle direkt auf iPhone/Mac
- Qualcomm Snapdragon: NPU für KI-Inferenz auf Android
- Microsoft Copilot+ PCs: Neural Processing Unit (NPU) in Windows-Laptops
Vorteile: Keine Latenz, kein Datenschutzproblem, offline-fähig. Nachteil: Kleinere Modelle (1B–7B) sind weniger leistungsfähig als Cloud-Modelle.
Kleine, spezialisierte Modelle
Der Trend geht weg von „größer ist besser” hin zu effizienten, spezialisierten Modellen:
- Microsoft Phi-4 (14B Parameter): Auf Niveau von Modellen 10× größer
- Google Gemma 3 (1B–27B): Effizient, für Edge und Fine-Tuning optimiert
- Ministral 3 (3B/8B/14B): Mistrals kompakte Modellfamilie, multimodal
Warum: Kleinere Modelle sind günstiger in der Inferenz, schneller, und für spezifische Aufgaben oft besser als generische Großmodelle.
Hype vs. Realität
Der Gartner Hype Cycle beschreibt wie neue Technologien überschätzt, dann unterschätzt und schließlich realistisch eingeschätzt werden. KI ist gerade auf dem Weg vom „Peak of Inflated Expectations” in das „Trough of Disillusionment”.
| Versprechen | Realität 2026 |
|---|---|
| „KI ersetzt alle Wissensarbeiter” | KI verändert Aufgaben, ersetzt selten ganze Jobs |
| „AGI in 2–3 Jahren” | Frontier-Modelle sind beeindruckend, aber kein echtes Verstehen |
| „KI-Agenten übernehmen alles” | Agenten funktionieren für klar definierte, reversible Aufgaben – Fortschritte bei Agent Teams |
| „Open Source ist genauso gut” | Llama 4 und Mistral Large 3 konkurrieren mit Frontier-Modellen |
| „KI halluziniert nicht mehr” | Halluzinationen sind reduziert, aber nicht gelöst |
Was wirklich funktioniert:
- Text-Erstellung und -Bearbeitung (sehr gut)
- Code-Assistenz (sehr gut, 20–40% Produktivitätsgewinn messbar)
- Dokumentenanalyse und -zusammenfassung (gut)
- Semantische Suche und RAG (gut)
- Bildgenerierung für kreative Zwecke (sehr gut)
Was noch nicht zuverlässig funktioniert:
- Autonome Agenten für kritische Prozesse
- Echtzeitdaten ohne externe Tools
- Komplexe mehrstufige Planung ohne menschliche Kontrolle
- Medizinische/rechtliche Entscheidungen ohne Expertenkontrolle
Regulierung: Der AI Act
Die EU hat mit dem AI Act (2024) das erste umfassende KI-Gesetz weltweit verabschiedet. Kernpunkte:
- Risikobasierter Ansatz: Je höher das Risiko, desto strenger die Anforderungen
- Verbotene Anwendungen: Soziale Bewertungssysteme, biometrische Massenüberwachung
- Hochrisiko-KI: Medizin, Justiz, kritische Infrastruktur – strenge Anforderungen
- Transparenzpflichten: KI-generierte Inhalte müssen gekennzeichnet werden
- Foundation Models: Besondere Pflichten für Anbieter großer Modelle (OpenAI, Google, Meta)
Zeitplan: Verbote ab 2025, Hochrisiko-Anforderungen ab 2026, volle Anwendung ab 2027.
Für Unternehmen bedeutet das: KI-Anwendungen müssen dokumentiert, auditierbar und erklärbar sein – besonders wenn sie Entscheidungen über Menschen treffen.
KI-Landkarte für deinen Kontext erstellen
Erstelle eine persönliche Übersicht der KI-Tools und -Technologien die für dein Unternehmen oder deinen Beruf relevant sind.
- Liste alle KI-Tools auf die du oder dein Team bereits nutzt (ChatGPT, Copilot, etc.)
- Ordne sie den Ebenen zu: Infrastruktur / Modell / Plattform / Anwendung
- Identifiziere: Welche Anbieter sind für dich strategisch wichtig?
- Prüfe: Gibt es Open-Source-Alternativen zu deinen aktuellen Tools?
- Definiere 2-3 KI-Trends die für deinen Bereich in den nächsten 12 Monaten relevant werden
Ist KI dasselbe wie Machine Learning?
Nein. KI (Künstliche Intelligenz) ist der Oberbegriff für alle Systeme die intelligentes Verhalten zeigen. Machine Learning ist ein Teilbereich von KI. Deep Learning ist ein Teilbereich von ML. LLMs sind Deep-Learning-Modelle. Also: KI ⊃ ML ⊃ Deep Learning ⊃ LLMs.
Warum dominiert NVIDIA den KI-Markt?
NVIDIA's GPUs waren ursprünglich für Spiele entwickelt – aber ihre parallele Rechenarchitektur ist ideal für das Training neuronaler Netze. NVIDIA hat früh in KI-Software (CUDA) investiert und hat heute einen Marktanteil von ~80% bei KI-Chips. AMD und Intel holen auf, aber der Vorsprung ist groß.
Was ist der Unterschied zwischen ChatGPT und GPT-5?
GPT-5 ist das Sprachmodell (die KI). ChatGPT ist die Benutzeroberfläche von OpenAI die GPT-5 (und andere Modelle) zugänglich macht. Ähnlich: Claude ist das Modell, claude.ai ist die Oberfläche.
Wird KI meinen Job ersetzen?
KI ersetzt selten ganze Jobs – sie verändert Aufgaben innerhalb von Jobs. Repetitive, regelbasierte Aufgaben werden automatisiert. Kreative, soziale und strategische Aufgaben bleiben menschlich. Die Frage ist nicht 'KI vs. Mensch' sondern 'Mensch mit KI vs. Mensch ohne KI'.
- KI ist kein einzelnes Ding – es ist ein Stapel von Technologien: Chips → Modelle → Plattformen → Anwendungen
- Drei Unternehmen dominieren die Basis-Infrastruktur: NVIDIA (Chips), AWS/Azure/Google (Cloud), OpenAI/Anthropic/Google (Modelle)
- Open Source hat aufgeholt: Llama 4 und Mistral Large 3 konkurrieren mit Frontier-Modellen – für viele Use Cases ausreichend
- KI-Agenten sind der nächste große Schritt – aber noch nicht produktionsreif für kritische Anwendungen
- Der Hype-Zyklus ist real: Viele KI-Versprechen sind 3–5 Jahre von der Praxis entfernt