<EbeneX/>
LLM Praxis

Agent

AI Agent

Ein KI-System, das eigenständig Aufgaben plant, Entscheidungen trifft und Tools nutzt, um komplexe Ziele zu erreichen – über einfache Frage-Antwort-Interaktion hinaus.

Grundlagen LLM

Agent Memory

Agent Memory

Mechanismen, die KI-Agenten ermöglichen, Informationen über Konversationen und Sitzungen hinweg zu speichern und abzurufen – für kontextbewusstes Handeln.

Praxis LLM

Agentic AI Frameworks

Agentic AI Frameworks

Software-Frameworks, die es ermöglichen, autonome KI-Agenten zu bauen, die eigenständig Aufgaben planen, Tools nutzen und miteinander kooperieren – von Einzel-Agenten bis zu Multi-Agent-Systemen.

LLM Praxis

Agentic Workflows

Agentic Workflows

KI-Systeme, in denen LLMs autonom planen, Entscheidungen treffen und Tools nutzen um komplexe Aufgaben mehrstufig zu lösen – der nächste Schritt nach einfachen Chat-Antworten.

Praxis LLM

AI Search

AI Search / Search-Augmented Generation

Eine neue Generation von Suchmaschinen, die LLMs nutzen, um Suchergebnisse zu verstehen, zusammenzufassen und direkt als Antwort zu präsentieren – statt nur Links aufzulisten.

Grundlagen LLM

Alignment Tax

Alignment Tax

Der Performance-Verlust, der entsteht, wenn KI-Modelle auf Sicherheit und Alignment trainiert werden – der Trade-off zwischen Fähigkeit und Sicherheit.

LLM Architektur

Beam Search

Beam Search

Ein Decoding-Algorithmus für LLMs, der mehrere Kandidaten-Sequenzen parallel verfolgt und die wahrscheinlichste Gesamtsequenz auswählt – besser als Greedy, aber rechenintensiver.

LLM Praxis

Chain-of-Thought

Chain-of-Thought Prompting

Eine Prompting-Technik, bei der das Modell aufgefordert wird, Schritt für Schritt zu denken – verbessert die Reasoning-Fähigkeiten von LLMs dramatisch.

Grundlagen LLM

Chat-Rollen (System, User, Assistant)

Chat Roles / Message Roles

Die drei Rollen in Chat-APIs – System für Anweisungen, User für Nutzereingaben, Assistant für Modellantworten. Grundlage für strukturierte LLM-Kommunikation.

LLM Grundlagen

ChatGPT / GPT

ChatGPT / GPT

Eine Familie von Large Language Models von OpenAI – GPT steht für 'Generative Pre-trained Transformer'. ChatGPT ist die Chat-optimierte Version, die KI für Millionen Menschen zugänglich gemacht hat.

LLM Praxis

Chunking & Reranking

Chunking & Reranking

Zwei Schlüsseltechniken für RAG-Systeme: Chunking teilt Dokumente in suchbare Abschnitte, Reranking sortiert die Ergebnisse nach Relevanz.

LLM Grundlagen

Claude (Anthropic)

Claude

Claude ist die KI-Modell-Familie von Anthropic – entwickelt mit besonderem Fokus auf Sicherheit, Ehrlichkeit und hilfreiche Interaktion. Claude konkurriert direkt mit GPT-5 und Gemini 3.

Praxis LLM

Computer Use

Computer Use / Browser Agents

Die Fähigkeit von KI-Modellen, einen Computer wie ein Mensch zu bedienen – Klicken, Tippen, Scrollen und Navigieren auf dem Bildschirm, um Aufgaben autonom in beliebigen Anwendungen auszuführen.

LLM DevOps

Context Caching

Context Caching

Eine Optimierungstechnik, die häufig verwendete Kontexte (System-Prompts, Dokumente, Beispiele) zwischen LLM-Aufrufen zwischenspeichert, um Kosten und Latenz bei wiederholten Anfragen drastisch zu reduzieren.

Grundlagen LLM

Context Compression

Context Compression

Techniken zur Komprimierung von Kontext-Informationen für LLMs – um mehr relevante Informationen in das begrenzte Kontextfenster zu packen.

LLM Praxis

Context Engineering

Context Engineering

Die Kunst, das begrenzte Kontextfenster eines LLMs optimal zu nutzen – durch Priorisierung, Kompression und intelligente Auswahl relevanter Informationen.

Grundlagen LLM

Context Engineering

Context Engineering

Die Kunst, den richtigen Kontext für LLM-Anfragen zusammenzustellen – welche Informationen, in welcher Reihenfolge, in welchem Format.

Grundlagen LLM

ControlNet

ControlNet

Eine Technik zur Steuerung von Diffusionsmodellen durch zusätzliche Eingaben wie Skizzen, Posen oder Tiefenkarten – für kontrollierbare Bildgenerierung.

LLM Grundlagen

DPO (Direct Preference Optimization)

Direct Preference Optimization

Eine Trainingsmethode für LLMs, die menschliche Präferenzen direkt in das Modell einbettet – einfacher und stabiler als RLHF, ohne separates Reward Model.

Grundlagen LLM

DreamBooth

DreamBooth

Eine Fine-Tuning-Technik für Diffusionsmodelle, die mit wenigen Bildern neue Konzepte lernt – für personalisierte Bildgenerierung von Personen, Objekten oder Stilen.

Daten LLM

Embeddings

Embeddings

Numerische Vektordarstellungen von Text, Bildern oder anderen Daten, die semantische Bedeutung in einem hochdimensionalen Raum abbilden.

LLM Grundlagen

Few-Shot / Zero-Shot Learning

Few-Shot / Zero-Shot Learning

Die Fähigkeit von KI-Modellen, Aufgaben mit nur wenigen Beispielen (Few-Shot) oder ganz ohne Beispiele (Zero-Shot) zu lösen.

LLM Praxis

Fine-Tuning

Fine-Tuning

Das gezielte Nachtrainieren eines vortrainierten KI-Modells auf spezifische Daten oder Aufgaben, um es für einen bestimmten Einsatzzweck zu optimieren.

LLM Grundlagen

Foundation Model

Foundation Model

Große, auf breiten Daten vortrainierte KI-Modelle, die als Grundlage für viele verschiedene Anwendungen dienen – durch Fine-Tuning oder Prompting anpassbar.

LLM Praxis

Function Calling

Function Calling

Eine Fähigkeit moderner LLMs, strukturierte Funktionsaufrufe zu generieren, die externe Tools, APIs oder Datenbanken ansprechen können.

LLM Praxis

Gemini

Gemini

Googles Familie multimodaler KI-Modelle, die Text, Code, Bild, Audio und Video nativ verarbeiten – von der kompakten Nano-Variante bis zum leistungsstärksten Ultra-Modell.

LLM Architektur

Greedy Decoding

Greedy Decoding

Die einfachste Decoding-Strategie für LLMs – wählt bei jedem Schritt das wahrscheinlichste Token. Schnell und deterministisch, aber oft nicht optimal.

LLM Sicherheit

Guardrails

Guardrails

Sicherheitsmechanismen und Regeln, die das Verhalten von KI-Systemen einschränken und sicherstellen, dass Ausgaben sicher, korrekt und angemessen sind.

LLM Grundlagen

Halluzinationen

Hallucinations

Das Phänomen, bei dem KI-Sprachmodelle plausibel klingende, aber faktisch falsche oder erfundene Informationen generieren.

Praxis LLM

Hugging Face

Hugging Face

Die zentrale Plattform des ML-Ökosystems – mit dem Model Hub, Datasets, Spaces und der Transformers-Bibliothek. Das 'GitHub für Machine Learning'.

LLM Grundlagen

Instruction Tuning

Instruction Tuning / Instruction Fine-Tuning

Eine Fine-Tuning-Methode, bei der LLMs lernen, natürlichsprachliche Anweisungen zu befolgen – der Schlüssel zu hilfreichen, interaktiven KI-Assistenten.

Sicherheit LLM

Jailbreak

Jailbreak

Techniken, mit denen Angreifer versuchen, die Sicherheitsmechanismen und Richtlinien eines LLMs zu umgehen, um unerwünschte oder schädliche Ausgaben zu erzwingen.

LLM Praxis

JSON Mode / Structured Output

JSON Mode / Structured Output

Eine Funktion moderner LLM-APIs, die garantiert, dass die Modellantwort valides JSON ist – essenziell für die Integration von KI in Software-Pipelines und Datenverarbeitung.

Praxis LLM

KI-Coding-Assistenten

AI Coding Assistants

Software-Tools, die KI-Modelle nutzen, um Entwickler beim Programmieren zu unterstützen – von Autovervollständigung über Code-Generierung bis hin zu autonomem Vibe Coding in der IDE.

LLM Grundlagen

Kontextfenster

Context Window

Die maximale Menge an Text (gemessen in Tokens), die ein Sprachmodell gleichzeitig verarbeiten kann – bestehend aus Eingabe und Ausgabe zusammen.

Architektur LLM

KV-Cache

KV-Cache (Key-Value Cache)

Ein Optimierungsmechanismus für Transformer-Modelle, der die Key-Value-Paare aus dem Attention-Mechanismus zwischenspeichert, um wiederholte Berechnungen zu vermeiden.

Praxis LLM

LangChain / LlamaIndex

LangChain / LlamaIndex

Die zwei populärsten Frameworks für LLM-Anwendungen – LangChain für Chains und Agents, LlamaIndex für RAG und Daten-Indexierung.

LLM Grundlagen

Large Language Model (LLM)

Large Language Model

Ein KI-Modell, das auf riesigen Textmengen trainiert wurde und menschenähnliche Sprache verstehen und generieren kann.

LLM Praxis

Llama

Llama (Large Language Model Meta AI)

Metas Familie von Open-Weight-Sprachmodellen, die das KI-Ökosystem demokratisiert haben – von Llama 1 (2023) bis Llama 3.3 (2025) das meistgenutzte Open-Weight-Modell weltweit.

LLM Sicherheit

LLM

AI Alignment

Der Prozess, KI-Systeme so auszurichten, dass sie menschliche Werte, Absichten und Sicherheitsanforderungen zuverlässig befolgen.

LLM DevOps

LLM Evaluation

LLM Evaluation (Evals)

Methoden und Metriken zur systematischen Bewertung der Qualität, Zuverlässigkeit und Sicherheit von Large Language Models und KI-Anwendungen – von automatisierten Benchmarks bis zu menschlichem Feedback.

LLM DevOps

LLM Router

LLM Router

Ein System, das eingehende LLM-Anfragen basierend auf Komplexität, Kosten oder Anforderungen automatisch an das optimale Modell weiterleitet – für bessere Performance bei geringeren Kosten.

LLM Grundlagen

Logits

Logits

Die rohen, unnormalisierten Ausgabewerte eines neuronalen Netzes, bevor sie durch Softmax in Wahrscheinlichkeiten umgewandelt werden.

LLM Praxis

LoRA / QLoRA

LoRA / QLoRA

Effiziente Fine-Tuning-Methoden, die nur einen Bruchteil der Modellparameter anpassen – LoRA (Low-Rank Adaptation) macht Fine-Tuning auf Consumer-Hardware möglich.

LLM Praxis

Mistral AI

Mistral AI

Ein französisches KI-Unternehmen, das effiziente Open-Weight-Sprachmodelle entwickelt – von Mistral 7B über Mixtral bis Mistral Large, bekannt für hervorragendes Preis-Leistungs-Verhältnis.

Architektur LLM

Mixture of Experts (MoE)

Mixture of Experts

Eine Modellarchitektur, bei der nur ein Teil der Parameter pro Eingabe aktiviert wird – ermöglicht riesige Modelle bei moderatem Rechenaufwand.

Architektur LLM Praxis

Model Context Protocol (MCP)

Model Context Protocol

Ein offenes Protokoll von Anthropic, das KI-Modellen standardisierten Zugriff auf externe Datenquellen, Tools und Systeme ermöglicht – wie ein universeller USB-C-Anschluss für KI-Anwendungen.

LLM Architektur

Multi-Agent Systems

Multi-Agent Systems (MAS)

Architekturen, in denen mehrere spezialisierte KI-Agenten zusammenarbeiten, um komplexe Aufgaben zu lösen – jeder Agent hat eine Rolle und kommuniziert mit anderen.

LLM Architektur

Multimodale KI

Multimodal AI

KI-Systeme, die mehrere Datentypen gleichzeitig verarbeiten – Text, Bilder, Audio, Video – und so ein ganzheitlicheres Verständnis der Welt entwickeln als reine Sprachmodelle.

LLM Grundlagen

Multimodalität

Multimodality

Die Fähigkeit eines KI-Modells, verschiedene Datentypen wie Text, Bilder, Audio und Video gleichzeitig zu verstehen und zu verarbeiten.

LLM Architektur

Nucleus Sampling (Top-p Sampling)

Nucleus Sampling / Top-p Sampling

Eine Sampling-Strategie für LLMs, die nur die wahrscheinlichsten Tokens berücksichtigt, deren kumulative Wahrscheinlichkeit einen Schwellenwert p erreicht – die Grundlage für natürliche, diverse Textgenerierung.

LLM Praxis

Open-Weight-Modelle

Open-Weight Models

KI-Modelle, deren trainierte Gewichte öffentlich verfügbar sind und lokal oder auf eigener Infrastruktur betrieben werden können – im Gegensatz zu proprietären Modellen wie GPT-4, die nur über APIs zugänglich sind.

Grundlagen LLM

Perplexity

Perplexity

Eine Metrik die misst, wie 'überrascht' ein Sprachmodell von einem Text ist – niedrigere Perplexity bedeutet besseres Sprachverständnis.

Grundlagen LLM

Pre-Training

Pre-Training

Die erste und aufwändigste Trainingsphase eines Foundation Models, in der es auf riesigen Datenmengen grundlegende Sprachverständnis- und Reasoning-Fähigkeiten erlernt – bevor Fine-Tuning oder RLHF folgen.

LLM Praxis

Prompt Chaining

Prompt Chaining

Eine Technik, bei der komplexe Aufgaben in mehrere aufeinanderfolgende LLM-Aufrufe zerlegt werden – die Ausgabe eines Prompts wird zur Eingabe des nächsten.

LLM Praxis

Prompt Compression

Prompt Compression

Techniken, um Prompts zu verkürzen ohne wesentliche Informationen zu verlieren – für geringere Token-Kosten, niedrigere Latenz und bessere Nutzung des Kontextfensters.

LLM Praxis

Prompt Engineering

Prompt Engineering

Die Kunst und Technik, Anweisungen für KI-Sprachmodelle so zu formulieren, dass sie optimale und zielgerichtete Ergebnisse liefern.

Sicherheit LLM

Prompt Injection

Prompt Injection

Ein Sicherheitsangriff, bei dem bösartige Eingaben ein LLM dazu bringen, seine Anweisungen zu ignorieren und unerwünschte Aktionen auszuführen.

Praxis LLM

Prompt Templates

Prompt Templates

Vorgefertigte, parametrisierbare Prompt-Strukturen, die konsistente und qualitativ hochwertige Ergebnisse von LLMs sicherstellen – von einfachen Textbausteinen bis zu komplexen Chain-of-Thought-Vorlagen.

LLM Daten

RAG (Retrieval Augmented Generation)

Retrieval Augmented Generation

Eine Technik, die Large Language Models mit externen Wissensdatenbanken verbindet, um präzisere und faktenbasierte Antworten zu generieren.

LLM Praxis

ReAct Prompting

ReAct (Reasoning + Acting)

Ein Prompting-Framework, das Reasoning (Denken) und Acting (Handeln) kombiniert – das LLM denkt laut nach, führt Aktionen aus und beobachtet die Ergebnisse.

LLM Architektur

Reasoning-Modelle

Reasoning Models

Eine neue Klasse von KI-Modellen, die komplexe Probleme durch explizites mehrstufiges Denken lösen – GPT-5 Thinking, Claude Opus 4.6 und DeepSeek R1 sind prominente Beispiele.

Grundlagen LLM

Reflection Prompting

Reflection Prompting / Self-Reflection

Eine Prompting-Technik, bei der LLMs ihre eigenen Antworten überprüfen und verbessern – für höhere Qualität durch Selbstreflexion.

LLM Grundlagen

Reward Model

Reward Model

Ein Modell, das menschliche Präferenzen gelernt hat und vorhersagen kann, welche Ausgabe ein Mensch bevorzugen würde – zentrale Komponente von RLHF.

LLM Grundlagen

RLHF (Reinforcement Learning from Human Feedback)

Reinforcement Learning from Human Feedback

Eine Trainingsmethode, bei der ein KI-Modell durch menschliches Feedback lernt, hilfreiche, harmlose und ehrliche Antworten zu generieren.

LLM Grundlagen

Scaling Laws

Scaling Laws

Empirische Gesetzmäßigkeiten, die beschreiben, wie die Leistung von LLMs mit Modellgröße, Datenmenge und Rechenleistung skaliert – Grundlage für Trainings-Entscheidungen.

Grundlagen LLM

Self-Consistency

Self-Consistency Prompting

Eine Prompting-Technik, bei der mehrere Antworten generiert und die häufigste als Ergebnis gewählt wird – für zuverlässigere Reasoning-Ergebnisse.

Grundlagen LLM

Self-Supervised Learning

Self-Supervised Learning

Eine Lernmethode, bei der das Modell sich selbst Trainingsaufgaben aus ungelabelten Daten erstellt – die Grundlage für das Pre-Training moderner LLMs.

Marketing LLM

Sentiment-Analyse

Sentiment Analysis

Eine NLP-Technik, die automatisch die Stimmung (positiv, negativ, neutral) in Texten erkennt – eingesetzt für Social-Media-Monitoring, Kundenfeedback-Analyse und Brand Reputation Management.

LLM Architektur

Speculative Decoding

Speculative Decoding

Eine Optimierungstechnik, bei der ein kleines Modell Tokens vorschlägt und ein großes Modell sie parallel verifiziert – für deutlich schnellere Inferenz.

Grundlagen LLM

Speech-to-Text

Speech-to-Text (STT) / Automatic Speech Recognition (ASR)

KI-Technologie zur automatischen Transkription von gesprochener Sprache in geschriebenen Text – von Diktaten bis Echtzeit-Untertitelung.

LLM Praxis

Structured Output

Structured Output

Eine Technik, bei der LLMs ihre Antworten in einem vordefinierten Format (meist JSON) ausgeben, statt freiem Text – für zuverlässige Integration in Anwendungen.

LLM Praxis

System Prompt

System Prompt

Eine versteckte Anweisung an ein Sprachmodell, die dessen Rolle, Verhalten und Einschränkungen für eine gesamte Konversation definiert.

LLM Praxis

Temperatur

Temperature

Ein Parameter bei der Textgenerierung, der steuert, wie kreativ oder deterministisch die Ausgabe eines Sprachmodells ist.

LLM Architektur

Test-Time Compute

Test-Time Compute (TTC) / Inference-Time Compute

Eine Strategie, bei der KI-Modelle zur Inferenzzeit mehr Rechenkapazität nutzen, um durch längeres Nachdenken, Selbstkorrektur oder mehrfache Versuche bessere Ergebnisse zu erzielen.

LLM Praxis

Text-to-Image

Text-to-Image (T2I)

KI-Systeme, die aus natürlichsprachlichen Beschreibungen Bilder generieren – von DALL-E über Midjourney bis Stable Diffusion.

Grundlagen LLM

Text-to-Speech

Text-to-Speech (TTS) / Speech Synthesis

KI-Technologie zur Umwandlung von geschriebenem Text in natürlich klingende Sprache – von Voiceover bis Echtzeit-Assistenten.

Grundlagen LLM

Text-to-Video

Text-to-Video (T2V)

KI-Modelle, die aus Textbeschreibungen Videos generieren – von kurzen Clips bis hin zu komplexen Szenen mit konsistenten Charakteren und Bewegungen.

LLM Grundlagen

Tokenisierung

Tokenization

Der Prozess, bei dem Text in kleinere Einheiten (Tokens) zerlegt wird, bevor ein Sprachmodell ihn verarbeiten kann – der erste und entscheidende Schritt jeder NLP-Pipeline.

Grundlagen LLM

Tokenizer (BPE / SentencePiece)

Tokenizer (BPE / SentencePiece)

Algorithmen die Text in Tokens zerlegen – BPE (Byte Pair Encoding) und SentencePiece sind die Standards hinter GPT, LLaMA und den meisten modernen LLMs.

Grundlagen LLM

Tokens

Tokens

Die kleinsten Texteinheiten, in die ein Sprachmodell Text zerlegt – Wörter, Wortteile oder einzelne Zeichen, die das Modell verarbeiten kann.

LLM Praxis

Tool Use / Function Calling

Tool Use / Function Calling

Die Fähigkeit von Sprachmodellen, externe Werkzeuge und Funktionen aufzurufen – von Websuche über Code-Ausführung bis zu API-Aufrufen.

LLM Praxis

Top-p (Nucleus Sampling)

Top-p / Nucleus Sampling

Eine Sampling-Methode bei der Textgenerierung, die nur die wahrscheinlichsten Tokens berücksichtigt, deren kumulative Wahrscheinlichkeit einen Schwellenwert p erreicht.

Architektur LLM

Transformer

Transformer

Eine revolutionäre neuronale Netzwerk-Architektur, die auf dem Attention-Mechanismus basiert und die Grundlage für moderne Sprachmodelle wie GPT und BERT bildet.

Grundlagen LLM

Tree of Thoughts

Tree of Thoughts (ToT)

Eine Prompting-Technik, bei der LLMs mehrere Lösungspfade parallel explorieren und bewerten – für komplexe Probleme, die schrittweises Denken erfordern.

LLM Praxis

Voice AI & Text-to-Speech

Voice AI / Text-to-Speech (TTS) / Speech-to-Text (STT)

Technologien, die Text in natürlich klingende Sprache umwandeln (TTS) und gesprochene Sprache verstehen (STT) – von ElevenLabs über OpenAI Voice bis hin zu Echtzeit-Konversation mit KI.

Praxis LLM

Whisper

Whisper

OpenAIs Open-Source Spracherkennungsmodell – wandelt gesprochene Sprache in Text um, unterstützt 99 Sprachen und funktioniert auch lokal.

LLM Grundlagen

Zero-Shot Learning

Zero-Shot Learning

Die Fähigkeit eines Modells, Aufgaben zu lösen, für die es keine spezifischen Trainingsbeispiele gesehen hat – eine Schlüsseleigenschaft moderner Foundation Models und LLMs.