<EbeneX/>
Grundlagen · 20. Februar 2026

Die KI-Technologie-Landschaft verstehen

Wer macht was in der KI-Welt – und was davon ist Hype, was ist real?

Über diesen Guide

Von Foundation Models bis KI-Agenten: Ein strukturierter Überblick über die wichtigsten KI-Technologien, Player und Trends – ohne Vorkenntnisse verständlich erklärt.

Einsteiger 12 Min. Lesezeit
Voraussetzungen: Was sind LLMs?
Die Ebenen der KI-Technologie (Infrastruktur, Modelle, Plattformen, Anwendungen) unterscheiden
Die wichtigsten Unternehmen und ihre Rolle im KI-Ökosystem kennen
Open Source vs. Closed Source in der KI-Welt einschätzen
Aktuelle Trends (Agenten, Multimodalität, Edge-KI) einordnen
Hype von realem Nutzenpotenzial unterscheiden

Die vier Ebenen der KI-Technologie

KI ist kein einzelnes Produkt – es ist ein Stapel von Technologien, die aufeinander aufbauen. Wer die Ebenen versteht, versteht auch warum bestimmte Unternehmen so mächtig sind.

Ebene 4: Anwendungen      ChatGPT, Copilot, Midjourney, Cursor, Perplexity

Ebene 3: Plattformen       Azure OpenAI, Google Vertex AI, AWS Bedrock, Hugging Face

Ebene 2: Modelle           GPT-5, Claude 4.6, Gemini 3, Llama 4, Mistral Large 3

Ebene 1: Infrastruktur     NVIDIA Blackwell GPUs, Google TPUs, AMD MI300X, Cloud (AWS/Azure/GCP)

Warum das wichtig ist: Wer auf Ebene 1 dominiert, hat strukturellen Vorteil auf allen Ebenen darüber. NVIDIA kontrolliert die Chips → alle anderen sind abhängig.

Die wichtigsten Player

Infrastruktur: NVIDIA dominiert

NVIDIA hat mit ~80% Marktanteil bei KI-Chips eine Quasi-Monopolstellung. Die Blackwell-Generation (B200, GB200) ist seit Februar 2026 in Volumenproduktion und löst die H100-Generation ab. Konkurrenten:

  • AMD (MI300X): Aufholend, gute Software-Unterstützung verbessert sich
  • Google (TPU v6): Nur intern und über Google Cloud verfügbar
  • Intel (Gaudi 3): Noch weit hinter NVIDIA

Cloud: Die drei Hyperscaler

AWS, Microsoft Azure und Google Cloud bieten KI-Infrastruktur als Service – und sind gleichzeitig Investoren in die führenden KI-Unternehmen:

CloudKI-InvestmentEigene ModelleKI-Plattform
Microsoft AzureOpenAI ($13B+)Phi-4 (klein, effizient)Azure OpenAI Service
Google CloudAnthropic ($2B+)Gemini 3, GemmaVertex AI
AWSAnthropic ($8B+)Titan, NovaAmazon Bedrock

Modell-Anbieter: Das Duopol

OpenAI (GPT-5, GPT-5.3-Codex) und Anthropic (Claude Opus 4.6, Sonnet 4.6) dominieren den Markt für leistungsfähige Closed-Source-Modelle. Dahinter:

  • Google DeepMind (Gemini 3): Stark bei Multimodalität, Mathe und Google-Integration
  • Meta (Llama 4): Führend bei Open Source – Llama 4 Maverick konkurriert mit Frontier-Modellen
  • Mistral AI (Mistral Large 3, Ministral 3): Europäisch, effizient, Open Source (Apache 2.0)
  • xAI (Grok): Elon Musks Antwort auf ChatGPT, integriert in X/Twitter

Das europäische Ökosystem

Europa hat aufgeholt – Mistral Large 3 konkurriert mit Frontier-Modellen:

  • Mistral AI (Frankreich): Technisch stark, Open-Source-Fokus
  • Aleph Alpha (Deutschland): Fokus auf Datensouveränität und Behörden
  • AI Act (EU-Regulierung): Europa setzt den globalen Regulierungsrahmen

Open Source vs. Closed Source

Eine der wichtigsten strategischen Entscheidungen im KI-Ökosystem:

Open SourceClosed Source
BeispieleLlama 4, Mistral Large 3, GemmaGPT-5, Claude 4.6, Gemini 3
KostenNur InfrastrukturPay-per-use
DatenschutzVollständig lokal möglichDaten gehen an Anbieter
AnpassbarkeitFine-Tuning, ModifikationNur Prompt Engineering
QualitätNahe an Closed Source (MoE-Modelle)Meist noch besser (frontier)
SupportCommunityKommerziell
KontrolleVollständigAbhängig vom Anbieter

Wann Open Source:

  • Datenschutz ist kritisch (Gesundheit, Finanzen, Behörden)
  • Hohe Volumen machen API-Kosten prohibitiv
  • Spezifisches Fine-Tuning nötig
  • Volle Kontrolle über Deployment

Wann Closed Source:

  • Beste Qualität für komplexe Aufgaben
  • Schneller Einstieg ohne Infrastruktur
  • Multimodalität (GPT-5, Gemini 3)
  • Kein eigenes ML-Team

Multimodalität: Text, Bild, Audio, Video

Moderne Frontier-Modelle verarbeiten nicht mehr nur Text. GPT-5, Gemini 3 und Llama 4 können gleichzeitig Text, Bilder, Audio und Video verstehen und generieren.

Praktische Anwendungen:

  • Dokumente mit Diagrammen analysieren
  • Screenshots beschreiben und Fehler finden
  • Gesprochene Sprache direkt verarbeiten (ohne separates STT-Modell)
  • Produktbilder für E-Commerce beschreiben

KI-Agenten: Autonome Aufgabenausführung

KI-Agenten sind Systeme die nicht nur antworten, sondern eigenständig Aufgaben ausführen: Web-Recherche, Code schreiben und ausführen, E-Mails senden, Formulare ausfüllen.

Klassisches LLM:  User fragt → Modell antwortet → fertig
KI-Agent:         User gibt Ziel → Agent plant → führt Schritte aus → prüft Ergebnis → iteriert

Aktueller Stand: Agenten funktionieren gut für klar definierte, reversible Aufgaben. Für kritische Prozesse (Finanztransaktionen, medizinische Entscheidungen) noch nicht produktionsreif – zu viele Halluzinationen und unerwartete Abweichungen.

Wichtige Frameworks: LangChain, LlamaIndex, AutoGen (Microsoft), CrewAI.

Reasoning-Modelle: Langsam denken für schwere Probleme

Reasoning ist inzwischen in die Hauptmodelle integriert: GPT-5 hat Thinking eingebaut, Claude 4.6 nutzt Adaptive Thinking, und Gemini 3 bietet Deep Think. Die Modelle entscheiden selbst, wie viel Denkzeit eine Aufgabe braucht.

Standard-LLM: Frage → sofortige Antwort (schnell, manchmal falsch)
Reasoning:    Frage → internes Denken (Sekunden bis Minuten) → Antwort (langsamer, genauer)

Wann sinnvoll: Mathematik, komplexe Logik, mehrstufige Planung, Code-Debugging. Für einfache Aufgaben überdimensioniert und teurer.

Edge-KI: Modelle auf dem Gerät

Statt Anfragen in die Cloud zu schicken, laufen kleine Modelle direkt auf dem Gerät – Smartphone, Laptop, IoT-Sensor.

  • Apple Intelligence: Eigene und Llama-basierte Modelle direkt auf iPhone/Mac
  • Qualcomm Snapdragon: NPU für KI-Inferenz auf Android
  • Microsoft Copilot+ PCs: Neural Processing Unit (NPU) in Windows-Laptops

Vorteile: Keine Latenz, kein Datenschutzproblem, offline-fähig. Nachteil: Kleinere Modelle (1B–7B) sind weniger leistungsfähig als Cloud-Modelle.

Kleine, spezialisierte Modelle

Der Trend geht weg von „größer ist besser” hin zu effizienten, spezialisierten Modellen:

  • Microsoft Phi-4 (14B Parameter): Auf Niveau von Modellen 10× größer
  • Google Gemma 3 (1B–27B): Effizient, für Edge und Fine-Tuning optimiert
  • Ministral 3 (3B/8B/14B): Mistrals kompakte Modellfamilie, multimodal

Warum: Kleinere Modelle sind günstiger in der Inferenz, schneller, und für spezifische Aufgaben oft besser als generische Großmodelle.

Hype vs. Realität

Der Gartner Hype Cycle beschreibt wie neue Technologien überschätzt, dann unterschätzt und schließlich realistisch eingeschätzt werden. KI ist gerade auf dem Weg vom „Peak of Inflated Expectations” in das „Trough of Disillusionment”.

VersprechenRealität 2026
„KI ersetzt alle Wissensarbeiter”KI verändert Aufgaben, ersetzt selten ganze Jobs
„AGI in 2–3 Jahren”Frontier-Modelle sind beeindruckend, aber kein echtes Verstehen
„KI-Agenten übernehmen alles”Agenten funktionieren für klar definierte, reversible Aufgaben – Fortschritte bei Agent Teams
„Open Source ist genauso gut”Llama 4 und Mistral Large 3 konkurrieren mit Frontier-Modellen
„KI halluziniert nicht mehr”Halluzinationen sind reduziert, aber nicht gelöst

Was wirklich funktioniert:

  • Text-Erstellung und -Bearbeitung (sehr gut)
  • Code-Assistenz (sehr gut, 20–40% Produktivitätsgewinn messbar)
  • Dokumentenanalyse und -zusammenfassung (gut)
  • Semantische Suche und RAG (gut)
  • Bildgenerierung für kreative Zwecke (sehr gut)

Was noch nicht zuverlässig funktioniert:

  • Autonome Agenten für kritische Prozesse
  • Echtzeitdaten ohne externe Tools
  • Komplexe mehrstufige Planung ohne menschliche Kontrolle
  • Medizinische/rechtliche Entscheidungen ohne Expertenkontrolle

Regulierung: Der AI Act

Die EU hat mit dem AI Act (2024) das erste umfassende KI-Gesetz weltweit verabschiedet. Kernpunkte:

  • Risikobasierter Ansatz: Je höher das Risiko, desto strenger die Anforderungen
  • Verbotene Anwendungen: Soziale Bewertungssysteme, biometrische Massenüberwachung
  • Hochrisiko-KI: Medizin, Justiz, kritische Infrastruktur – strenge Anforderungen
  • Transparenzpflichten: KI-generierte Inhalte müssen gekennzeichnet werden
  • Foundation Models: Besondere Pflichten für Anbieter großer Modelle (OpenAI, Google, Meta)

Zeitplan: Verbote ab 2025, Hochrisiko-Anforderungen ab 2026, volle Anwendung ab 2027.

Für Unternehmen bedeutet das: KI-Anwendungen müssen dokumentiert, auditierbar und erklärbar sein – besonders wenn sie Entscheidungen über Menschen treffen.

KI-Landkarte für deinen Kontext erstellen

Erstelle eine persönliche Übersicht der KI-Tools und -Technologien die für dein Unternehmen oder deinen Beruf relevant sind.

  1. Liste alle KI-Tools auf die du oder dein Team bereits nutzt (ChatGPT, Copilot, etc.)
  2. Ordne sie den Ebenen zu: Infrastruktur / Modell / Plattform / Anwendung
  3. Identifiziere: Welche Anbieter sind für dich strategisch wichtig?
  4. Prüfe: Gibt es Open-Source-Alternativen zu deinen aktuellen Tools?
  5. Definiere 2-3 KI-Trends die für deinen Bereich in den nächsten 12 Monaten relevant werden
Ist KI dasselbe wie Machine Learning?

Nein. KI (Künstliche Intelligenz) ist der Oberbegriff für alle Systeme die intelligentes Verhalten zeigen. Machine Learning ist ein Teilbereich von KI. Deep Learning ist ein Teilbereich von ML. LLMs sind Deep-Learning-Modelle. Also: KI ⊃ ML ⊃ Deep Learning ⊃ LLMs.

Warum dominiert NVIDIA den KI-Markt?

NVIDIA's GPUs waren ursprünglich für Spiele entwickelt – aber ihre parallele Rechenarchitektur ist ideal für das Training neuronaler Netze. NVIDIA hat früh in KI-Software (CUDA) investiert und hat heute einen Marktanteil von ~80% bei KI-Chips. AMD und Intel holen auf, aber der Vorsprung ist groß.

Was ist der Unterschied zwischen ChatGPT und GPT-5?

GPT-5 ist das Sprachmodell (die KI). ChatGPT ist die Benutzeroberfläche von OpenAI die GPT-5 (und andere Modelle) zugänglich macht. Ähnlich: Claude ist das Modell, claude.ai ist die Oberfläche.

Wird KI meinen Job ersetzen?

KI ersetzt selten ganze Jobs – sie verändert Aufgaben innerhalb von Jobs. Repetitive, regelbasierte Aufgaben werden automatisiert. Kreative, soziale und strategische Aufgaben bleiben menschlich. Die Frage ist nicht 'KI vs. Mensch' sondern 'Mensch mit KI vs. Mensch ohne KI'.

  • KI ist kein einzelnes Ding – es ist ein Stapel von Technologien: Chips → Modelle → Plattformen → Anwendungen
  • Drei Unternehmen dominieren die Basis-Infrastruktur: NVIDIA (Chips), AWS/Azure/Google (Cloud), OpenAI/Anthropic/Google (Modelle)
  • Open Source hat aufgeholt: Llama 4 und Mistral Large 3 konkurrieren mit Frontier-Modellen – für viele Use Cases ausreichend
  • KI-Agenten sind der nächste große Schritt – aber noch nicht produktionsreif für kritische Anwendungen
  • Der Hype-Zyklus ist real: Viele KI-Versprechen sind 3–5 Jahre von der Praxis entfernt