Agent
AI Agent
Ein KI-System, das eigenständig Aufgaben plant, Entscheidungen trifft und Tools nutzt, um komplexe Ziele zu erreichen – über einfache Frage-Antwort-Interaktion hinaus.
Large Language Models wie GPT, Claude und Llama haben die KI-Welt verändert. Diese Kategorie erklärt, wie Sprachmodelle funktionieren, was Tokens, Kontextfenster und Temperatur bedeuten und wie du durch Prompt Engineering und Fine-Tuning bessere Ergebnisse erzielst.
AI Agent
Ein KI-System, das eigenständig Aufgaben plant, Entscheidungen trifft und Tools nutzt, um komplexe Ziele zu erreichen – über einfache Frage-Antwort-Interaktion hinaus.
Agent Memory
Mechanismen, die KI-Agenten ermöglichen, Informationen über Konversationen und Sitzungen hinweg zu speichern und abzurufen – für kontextbewusstes Handeln.
Agentic AI Frameworks
Software-Frameworks, die es ermöglichen, autonome KI-Agenten zu bauen, die eigenständig Aufgaben planen, Tools nutzen und miteinander kooperieren – von Einzel-Agenten bis zu Multi-Agent-Systemen.
Agentic Workflows
KI-Systeme, in denen LLMs autonom planen, Entscheidungen treffen und Tools nutzen um komplexe Aufgaben mehrstufig zu lösen – der nächste Schritt nach einfachen Chat-Antworten.
AI Search / Search-Augmented Generation
Eine neue Generation von Suchmaschinen, die LLMs nutzen, um Suchergebnisse zu verstehen, zusammenzufassen und direkt als Antwort zu präsentieren – statt nur Links aufzulisten.
Alignment Tax
Der Performance-Verlust, der entsteht, wenn KI-Modelle auf Sicherheit und Alignment trainiert werden – der Trade-off zwischen Fähigkeit und Sicherheit.
Beam Search
Ein Decoding-Algorithmus für LLMs, der mehrere Kandidaten-Sequenzen parallel verfolgt und die wahrscheinlichste Gesamtsequenz auswählt – besser als Greedy, aber rechenintensiver.
Chain-of-Thought Prompting
Eine Prompting-Technik, bei der das Modell aufgefordert wird, Schritt für Schritt zu denken – verbessert die Reasoning-Fähigkeiten von LLMs dramatisch.
Chat Roles / Message Roles
Die drei Rollen in Chat-APIs – System für Anweisungen, User für Nutzereingaben, Assistant für Modellantworten. Grundlage für strukturierte LLM-Kommunikation.
ChatGPT / GPT
Eine Familie von Large Language Models von OpenAI – GPT steht für 'Generative Pre-trained Transformer'. ChatGPT ist die Chat-optimierte Version, die KI für Millionen Menschen zugänglich gemacht hat.
Chunking & Reranking
Zwei Schlüsseltechniken für RAG-Systeme: Chunking teilt Dokumente in suchbare Abschnitte, Reranking sortiert die Ergebnisse nach Relevanz.
Claude
Claude ist die KI-Modell-Familie von Anthropic – entwickelt mit besonderem Fokus auf Sicherheit, Ehrlichkeit und hilfreiche Interaktion. Claude konkurriert direkt mit GPT-5 und Gemini 3.
Computer Use / Browser Agents
Die Fähigkeit von KI-Modellen, einen Computer wie ein Mensch zu bedienen – Klicken, Tippen, Scrollen und Navigieren auf dem Bildschirm, um Aufgaben autonom in beliebigen Anwendungen auszuführen.
Context Caching
Eine Optimierungstechnik, die häufig verwendete Kontexte (System-Prompts, Dokumente, Beispiele) zwischen LLM-Aufrufen zwischenspeichert, um Kosten und Latenz bei wiederholten Anfragen drastisch zu reduzieren.
Context Compression
Techniken zur Komprimierung von Kontext-Informationen für LLMs – um mehr relevante Informationen in das begrenzte Kontextfenster zu packen.
Context Engineering
Die Kunst, das begrenzte Kontextfenster eines LLMs optimal zu nutzen – durch Priorisierung, Kompression und intelligente Auswahl relevanter Informationen.
Context Engineering
Die Kunst, den richtigen Kontext für LLM-Anfragen zusammenzustellen – welche Informationen, in welcher Reihenfolge, in welchem Format.
ControlNet
Eine Technik zur Steuerung von Diffusionsmodellen durch zusätzliche Eingaben wie Skizzen, Posen oder Tiefenkarten – für kontrollierbare Bildgenerierung.
Direct Preference Optimization
Eine Trainingsmethode für LLMs, die menschliche Präferenzen direkt in das Modell einbettet – einfacher und stabiler als RLHF, ohne separates Reward Model.
DreamBooth
Eine Fine-Tuning-Technik für Diffusionsmodelle, die mit wenigen Bildern neue Konzepte lernt – für personalisierte Bildgenerierung von Personen, Objekten oder Stilen.
Embeddings
Numerische Vektordarstellungen von Text, Bildern oder anderen Daten, die semantische Bedeutung in einem hochdimensionalen Raum abbilden.
Few-Shot / Zero-Shot Learning
Die Fähigkeit von KI-Modellen, Aufgaben mit nur wenigen Beispielen (Few-Shot) oder ganz ohne Beispiele (Zero-Shot) zu lösen.
Fine-Tuning
Das gezielte Nachtrainieren eines vortrainierten KI-Modells auf spezifische Daten oder Aufgaben, um es für einen bestimmten Einsatzzweck zu optimieren.
Foundation Model
Große, auf breiten Daten vortrainierte KI-Modelle, die als Grundlage für viele verschiedene Anwendungen dienen – durch Fine-Tuning oder Prompting anpassbar.
Function Calling
Eine Fähigkeit moderner LLMs, strukturierte Funktionsaufrufe zu generieren, die externe Tools, APIs oder Datenbanken ansprechen können.
Gemini
Googles Familie multimodaler KI-Modelle, die Text, Code, Bild, Audio und Video nativ verarbeiten – von der kompakten Nano-Variante bis zum leistungsstärksten Ultra-Modell.
Greedy Decoding
Die einfachste Decoding-Strategie für LLMs – wählt bei jedem Schritt das wahrscheinlichste Token. Schnell und deterministisch, aber oft nicht optimal.
Guardrails
Sicherheitsmechanismen und Regeln, die das Verhalten von KI-Systemen einschränken und sicherstellen, dass Ausgaben sicher, korrekt und angemessen sind.
Hallucinations
Das Phänomen, bei dem KI-Sprachmodelle plausibel klingende, aber faktisch falsche oder erfundene Informationen generieren.
Hugging Face
Die zentrale Plattform des ML-Ökosystems – mit dem Model Hub, Datasets, Spaces und der Transformers-Bibliothek. Das 'GitHub für Machine Learning'.
Instruction Tuning / Instruction Fine-Tuning
Eine Fine-Tuning-Methode, bei der LLMs lernen, natürlichsprachliche Anweisungen zu befolgen – der Schlüssel zu hilfreichen, interaktiven KI-Assistenten.
Jailbreak
Techniken, mit denen Angreifer versuchen, die Sicherheitsmechanismen und Richtlinien eines LLMs zu umgehen, um unerwünschte oder schädliche Ausgaben zu erzwingen.
JSON Mode / Structured Output
Eine Funktion moderner LLM-APIs, die garantiert, dass die Modellantwort valides JSON ist – essenziell für die Integration von KI in Software-Pipelines und Datenverarbeitung.
AI Coding Assistants
Software-Tools, die KI-Modelle nutzen, um Entwickler beim Programmieren zu unterstützen – von Autovervollständigung über Code-Generierung bis hin zu autonomem Vibe Coding in der IDE.
Context Window
Die maximale Menge an Text (gemessen in Tokens), die ein Sprachmodell gleichzeitig verarbeiten kann – bestehend aus Eingabe und Ausgabe zusammen.
KV-Cache (Key-Value Cache)
Ein Optimierungsmechanismus für Transformer-Modelle, der die Key-Value-Paare aus dem Attention-Mechanismus zwischenspeichert, um wiederholte Berechnungen zu vermeiden.
LangChain / LlamaIndex
Die zwei populärsten Frameworks für LLM-Anwendungen – LangChain für Chains und Agents, LlamaIndex für RAG und Daten-Indexierung.
Large Language Model
Ein KI-Modell, das auf riesigen Textmengen trainiert wurde und menschenähnliche Sprache verstehen und generieren kann.
Llama (Large Language Model Meta AI)
Metas Familie von Open-Weight-Sprachmodellen, die das KI-Ökosystem demokratisiert haben – von Llama 1 (2023) bis Llama 3.3 (2025) das meistgenutzte Open-Weight-Modell weltweit.
AI Alignment
Der Prozess, KI-Systeme so auszurichten, dass sie menschliche Werte, Absichten und Sicherheitsanforderungen zuverlässig befolgen.
LLM Evaluation (Evals)
Methoden und Metriken zur systematischen Bewertung der Qualität, Zuverlässigkeit und Sicherheit von Large Language Models und KI-Anwendungen – von automatisierten Benchmarks bis zu menschlichem Feedback.
LLM Router
Ein System, das eingehende LLM-Anfragen basierend auf Komplexität, Kosten oder Anforderungen automatisch an das optimale Modell weiterleitet – für bessere Performance bei geringeren Kosten.
Logits
Die rohen, unnormalisierten Ausgabewerte eines neuronalen Netzes, bevor sie durch Softmax in Wahrscheinlichkeiten umgewandelt werden.
LoRA / QLoRA
Effiziente Fine-Tuning-Methoden, die nur einen Bruchteil der Modellparameter anpassen – LoRA (Low-Rank Adaptation) macht Fine-Tuning auf Consumer-Hardware möglich.
Mistral AI
Ein französisches KI-Unternehmen, das effiziente Open-Weight-Sprachmodelle entwickelt – von Mistral 7B über Mixtral bis Mistral Large, bekannt für hervorragendes Preis-Leistungs-Verhältnis.
Mixture of Experts
Eine Modellarchitektur, bei der nur ein Teil der Parameter pro Eingabe aktiviert wird – ermöglicht riesige Modelle bei moderatem Rechenaufwand.
Model Context Protocol
Ein offenes Protokoll von Anthropic, das KI-Modellen standardisierten Zugriff auf externe Datenquellen, Tools und Systeme ermöglicht – wie ein universeller USB-C-Anschluss für KI-Anwendungen.
Multi-Agent Systems (MAS)
Architekturen, in denen mehrere spezialisierte KI-Agenten zusammenarbeiten, um komplexe Aufgaben zu lösen – jeder Agent hat eine Rolle und kommuniziert mit anderen.
Multimodal AI
KI-Systeme, die mehrere Datentypen gleichzeitig verarbeiten – Text, Bilder, Audio, Video – und so ein ganzheitlicheres Verständnis der Welt entwickeln als reine Sprachmodelle.
Multimodality
Die Fähigkeit eines KI-Modells, verschiedene Datentypen wie Text, Bilder, Audio und Video gleichzeitig zu verstehen und zu verarbeiten.
Nucleus Sampling / Top-p Sampling
Eine Sampling-Strategie für LLMs, die nur die wahrscheinlichsten Tokens berücksichtigt, deren kumulative Wahrscheinlichkeit einen Schwellenwert p erreicht – die Grundlage für natürliche, diverse Textgenerierung.
Open-Weight Models
KI-Modelle, deren trainierte Gewichte öffentlich verfügbar sind und lokal oder auf eigener Infrastruktur betrieben werden können – im Gegensatz zu proprietären Modellen wie GPT-4, die nur über APIs zugänglich sind.
Perplexity
Eine Metrik die misst, wie 'überrascht' ein Sprachmodell von einem Text ist – niedrigere Perplexity bedeutet besseres Sprachverständnis.
Pre-Training
Die erste und aufwändigste Trainingsphase eines Foundation Models, in der es auf riesigen Datenmengen grundlegende Sprachverständnis- und Reasoning-Fähigkeiten erlernt – bevor Fine-Tuning oder RLHF folgen.
Prompt Chaining
Eine Technik, bei der komplexe Aufgaben in mehrere aufeinanderfolgende LLM-Aufrufe zerlegt werden – die Ausgabe eines Prompts wird zur Eingabe des nächsten.
Prompt Compression
Techniken, um Prompts zu verkürzen ohne wesentliche Informationen zu verlieren – für geringere Token-Kosten, niedrigere Latenz und bessere Nutzung des Kontextfensters.
Prompt Engineering
Die Kunst und Technik, Anweisungen für KI-Sprachmodelle so zu formulieren, dass sie optimale und zielgerichtete Ergebnisse liefern.
Prompt Injection
Ein Sicherheitsangriff, bei dem bösartige Eingaben ein LLM dazu bringen, seine Anweisungen zu ignorieren und unerwünschte Aktionen auszuführen.
Prompt Templates
Vorgefertigte, parametrisierbare Prompt-Strukturen, die konsistente und qualitativ hochwertige Ergebnisse von LLMs sicherstellen – von einfachen Textbausteinen bis zu komplexen Chain-of-Thought-Vorlagen.
Retrieval Augmented Generation
Eine Technik, die Large Language Models mit externen Wissensdatenbanken verbindet, um präzisere und faktenbasierte Antworten zu generieren.
ReAct (Reasoning + Acting)
Ein Prompting-Framework, das Reasoning (Denken) und Acting (Handeln) kombiniert – das LLM denkt laut nach, führt Aktionen aus und beobachtet die Ergebnisse.
Reasoning Models
Eine neue Klasse von KI-Modellen, die komplexe Probleme durch explizites mehrstufiges Denken lösen – GPT-5 Thinking, Claude Opus 4.6 und DeepSeek R1 sind prominente Beispiele.
Reflection Prompting / Self-Reflection
Eine Prompting-Technik, bei der LLMs ihre eigenen Antworten überprüfen und verbessern – für höhere Qualität durch Selbstreflexion.
Reward Model
Ein Modell, das menschliche Präferenzen gelernt hat und vorhersagen kann, welche Ausgabe ein Mensch bevorzugen würde – zentrale Komponente von RLHF.
Reinforcement Learning from Human Feedback
Eine Trainingsmethode, bei der ein KI-Modell durch menschliches Feedback lernt, hilfreiche, harmlose und ehrliche Antworten zu generieren.
Scaling Laws
Empirische Gesetzmäßigkeiten, die beschreiben, wie die Leistung von LLMs mit Modellgröße, Datenmenge und Rechenleistung skaliert – Grundlage für Trainings-Entscheidungen.
Self-Consistency Prompting
Eine Prompting-Technik, bei der mehrere Antworten generiert und die häufigste als Ergebnis gewählt wird – für zuverlässigere Reasoning-Ergebnisse.
Self-Supervised Learning
Eine Lernmethode, bei der das Modell sich selbst Trainingsaufgaben aus ungelabelten Daten erstellt – die Grundlage für das Pre-Training moderner LLMs.
Sentiment Analysis
Eine NLP-Technik, die automatisch die Stimmung (positiv, negativ, neutral) in Texten erkennt – eingesetzt für Social-Media-Monitoring, Kundenfeedback-Analyse und Brand Reputation Management.
Speculative Decoding
Eine Optimierungstechnik, bei der ein kleines Modell Tokens vorschlägt und ein großes Modell sie parallel verifiziert – für deutlich schnellere Inferenz.
Speech-to-Text (STT) / Automatic Speech Recognition (ASR)
KI-Technologie zur automatischen Transkription von gesprochener Sprache in geschriebenen Text – von Diktaten bis Echtzeit-Untertitelung.
Structured Output
Eine Technik, bei der LLMs ihre Antworten in einem vordefinierten Format (meist JSON) ausgeben, statt freiem Text – für zuverlässige Integration in Anwendungen.
System Prompt
Eine versteckte Anweisung an ein Sprachmodell, die dessen Rolle, Verhalten und Einschränkungen für eine gesamte Konversation definiert.
Temperature
Ein Parameter bei der Textgenerierung, der steuert, wie kreativ oder deterministisch die Ausgabe eines Sprachmodells ist.
Test-Time Compute (TTC) / Inference-Time Compute
Eine Strategie, bei der KI-Modelle zur Inferenzzeit mehr Rechenkapazität nutzen, um durch längeres Nachdenken, Selbstkorrektur oder mehrfache Versuche bessere Ergebnisse zu erzielen.
Text-to-Image (T2I)
KI-Systeme, die aus natürlichsprachlichen Beschreibungen Bilder generieren – von DALL-E über Midjourney bis Stable Diffusion.
Text-to-Speech (TTS) / Speech Synthesis
KI-Technologie zur Umwandlung von geschriebenem Text in natürlich klingende Sprache – von Voiceover bis Echtzeit-Assistenten.
Text-to-Video (T2V)
KI-Modelle, die aus Textbeschreibungen Videos generieren – von kurzen Clips bis hin zu komplexen Szenen mit konsistenten Charakteren und Bewegungen.
Tokenization
Der Prozess, bei dem Text in kleinere Einheiten (Tokens) zerlegt wird, bevor ein Sprachmodell ihn verarbeiten kann – der erste und entscheidende Schritt jeder NLP-Pipeline.
Tokenizer (BPE / SentencePiece)
Algorithmen die Text in Tokens zerlegen – BPE (Byte Pair Encoding) und SentencePiece sind die Standards hinter GPT, LLaMA und den meisten modernen LLMs.
Tokens
Die kleinsten Texteinheiten, in die ein Sprachmodell Text zerlegt – Wörter, Wortteile oder einzelne Zeichen, die das Modell verarbeiten kann.
Tool Use / Function Calling
Die Fähigkeit von Sprachmodellen, externe Werkzeuge und Funktionen aufzurufen – von Websuche über Code-Ausführung bis zu API-Aufrufen.
Top-p / Nucleus Sampling
Eine Sampling-Methode bei der Textgenerierung, die nur die wahrscheinlichsten Tokens berücksichtigt, deren kumulative Wahrscheinlichkeit einen Schwellenwert p erreicht.
Transformer
Eine revolutionäre neuronale Netzwerk-Architektur, die auf dem Attention-Mechanismus basiert und die Grundlage für moderne Sprachmodelle wie GPT und BERT bildet.
Tree of Thoughts (ToT)
Eine Prompting-Technik, bei der LLMs mehrere Lösungspfade parallel explorieren und bewerten – für komplexe Probleme, die schrittweises Denken erfordern.
Voice AI / Text-to-Speech (TTS) / Speech-to-Text (STT)
Technologien, die Text in natürlich klingende Sprache umwandeln (TTS) und gesprochene Sprache verstehen (STT) – von ElevenLabs über OpenAI Voice bis hin zu Echtzeit-Konversation mit KI.
Whisper
OpenAIs Open-Source Spracherkennungsmodell – wandelt gesprochene Sprache in Text um, unterstützt 99 Sprachen und funktioniert auch lokal.
Zero-Shot Learning
Die Fähigkeit eines Modells, Aufgaben zu lösen, für die es keine spezifischen Trainingsbeispiele gesehen hat – eine Schlüsseleigenschaft moderner Foundation Models und LLMs.