A/B Testing
A/B Testing
Eine Methode zum Vergleich zweier Varianten (A und B) durch zufällige Aufteilung der Nutzer – der Goldstandard für datengetriebene Entscheidungen.
Wie setzt du KI konkret im Unternehmen ein? Diese Kategorie behandelt praktische Anwendungsfälle, Frameworks und Werkzeuge: von KI-Agenten und Automatisierung über Prompt Engineering bis zu konkreten Implementierungsstrategien für Unternehmen jeder Größe.
A/B Testing
Eine Methode zum Vergleich zweier Varianten (A und B) durch zufällige Aufteilung der Nutzer – der Goldstandard für datengetriebene Entscheidungen.
AI Agent
Ein KI-System, das eigenständig Aufgaben plant, Entscheidungen trifft und Tools nutzt, um komplexe Ziele zu erreichen – über einfache Frage-Antwort-Interaktion hinaus.
Agentic AI Frameworks
Software-Frameworks, die es ermöglichen, autonome KI-Agenten zu bauen, die eigenständig Aufgaben planen, Tools nutzen und miteinander kooperieren – von Einzel-Agenten bis zu Multi-Agent-Systemen.
Agentic Workflows
KI-Systeme, in denen LLMs autonom planen, Entscheidungen treffen und Tools nutzen um komplexe Aufgaben mehrstufig zu lösen – der nächste Schritt nach einfachen Chat-Antworten.
Agile
Ein Sammelbegriff für iterative Entwicklungsmethoden wie Scrum und Kanban, die schnelle Feedback-Zyklen, Flexibilität und kontinuierliche Verbesserung in den Mittelpunkt stellen.
AI Readiness
Der Grad der Bereitschaft eines Unternehmens, KI erfolgreich einzusetzen – umfasst Daten, Technologie, Prozesse, Kultur und Kompetenzen.
AI Search / Search-Augmented Generation
Eine neue Generation von Suchmaschinen, die LLMs nutzen, um Suchergebnisse zu verstehen, zusammenzufassen und direkt als Antwort zu präsentieren – statt nur Links aufzulisten.
AI Use Case
Ein konkreter Anwendungsfall, in dem Künstliche Intelligenz einen messbaren Mehrwert für ein Unternehmen oder einen Prozess liefert.
Automation vs. Augmentation
Zwei grundlegende Strategien für den KI-Einsatz: Automation ersetzt menschliche Arbeit vollständig, Augmentation unterstützt und verstärkt menschliche Fähigkeiten.
AutoML
Automatisiertes Machine Learning – Tools und Techniken die den ML-Workflow automatisieren: von Feature Engineering über Modellauswahl bis Hyperparameter-Tuning.
Benchmark
Standardisierte Tests und Datensätze, mit denen KI-Modelle objektiv verglichen werden – von MMLU für Allgemeinwissen bis HumanEval für Code-Fähigkeiten.
Canary Deployment / Canary Release
Eine Deployment-Strategie, bei der neue Modellversionen zunächst nur einem kleinen Teil der Nutzer ausgeliefert werden, um Probleme früh zu erkennen.
Chain-of-Thought Prompting
Eine Prompting-Technik, bei der das Modell aufgefordert wird, Schritt für Schritt zu denken – verbessert die Reasoning-Fähigkeiten von LLMs dramatisch.
Change Management
Ein strukturierter Ansatz, um Menschen und Organisationen durch Veränderungen zu begleiten – besonders wichtig bei der Einführung von KI, wo Ängste, Widerstände und neue Arbeitsweisen aufeinandertreffen.
Chunking & Reranking
Zwei Schlüsseltechniken für RAG-Systeme: Chunking teilt Dokumente in suchbare Abschnitte, Reranking sortiert die Ergebnisse nach Relevanz.
Clean Code
Prinzipien und Praktiken für lesbaren, wartbaren und verständlichen Quellcode – Code, der sich wie gut geschriebene Prosa liest.
Computer Use / Browser Agents
Die Fähigkeit von KI-Modellen, einen Computer wie ein Mensch zu bedienen – Klicken, Tippen, Scrollen und Navigieren auf dem Bildschirm, um Aufgaben autonom in beliebigen Anwendungen auszuführen.
Context Engineering
Die Kunst, das begrenzte Kontextfenster eines LLMs optimal zu nutzen – durch Priorisierung, Kompression und intelligente Auswahl relevanter Informationen.
Data Governance
Ein Framework aus Richtlinien, Prozessen und Standards zur Verwaltung von Daten – stellt Qualität, Sicherheit, Compliance und Nutzbarkeit von Daten sicher.
Data Annotation
Der Prozess, Rohdaten mit zusätzlichen Informationen (Labels, Tags, Markierungen) zu versehen, damit KI-Modelle daraus lernen können.
Dependency Injection (DI)
Ein Entwurfsmuster, bei dem Abhängigkeiten einer Klasse nicht intern erstellt, sondern von außen übergeben werden – für bessere Testbarkeit, Flexibilität und lose Kopplung.
Design Patterns
Bewährte Lösungsschablonen für wiederkehrende Probleme in der Softwareentwicklung – von Singleton über Observer bis Factory.
Design Thinking
Eine iterative Innovationsmethode, die Empathie für Nutzer, kreative Ideenfindung und schnelles Prototyping kombiniert – um Probleme zu lösen, die noch nicht klar definiert sind.
MLOps (Machine Learning Operations)
Die Praxis, Machine-Learning-Modelle zuverlässig und effizient in Produktion zu bringen und zu betreiben – die Verbindung von ML, DevOps und Data Engineering.
AI Strategy
Ein systematischer Plan, wie ein Unternehmen Künstliche Intelligenz einsetzen will – von der Identifizierung geeigneter Use Cases über den Aufbau von Kompetenzen bis zur Skalierung in Produktion.
Digital Twin
Eine virtuelle Nachbildung eines realen Objekts, Prozesses oder Systems, die mit Echtzeitdaten gespeist wird und durch KI-gestützte Simulation Vorhersagen, Optimierungen und Was-wäre-wenn-Analysen ermöglicht.
Digital Transformation
Der grundlegende Wandel von Unternehmen, Organisationen und Gesellschaft durch den Einsatz digitaler Technologien – nicht nur Prozesse digitalisieren, sondern Geschäftsmodelle, Kultur und Strukturen neu denken.
Experiment Tracking
Die systematische Dokumentation von ML-Experimenten – Hyperparameter, Metriken, Code-Versionen und Artefakte, um Ergebnisse reproduzierbar und vergleichbar zu machen.
Fine-Tuning
Das gezielte Nachtrainieren eines vortrainierten KI-Modells auf spezifische Daten oder Aufgaben, um es für einen bestimmten Einsatzzweck zu optimieren.
Function Calling
Eine Fähigkeit moderner LLMs, strukturierte Funktionsaufrufe zu generieren, die externe Tools, APIs oder Datenbanken ansprechen können.
Gemini
Googles Familie multimodaler KI-Modelle, die Text, Code, Bild, Audio und Video nativ verarbeiten – von der kompakten Nano-Variante bis zum leistungsstärksten Ultra-Modell.
GPU / TPU
Spezialisierte Hardware für KI-Berechnungen – GPUs (Graphics Processing Units) und TPUs (Tensor Processing Units) ermöglichen das Training und die Ausführung moderner KI-Modelle.
Hugging Face
Die zentrale Plattform des ML-Ökosystems – mit dem Model Hub, Datasets, Spaces und der Transformers-Bibliothek. Das 'GitHub für Machine Learning'.
Human-in-the-Loop (HITL)
Ein Ansatz, bei dem Menschen in den KI-Workflow eingebunden werden – zur Überprüfung, Korrektur oder finalen Entscheidung bei KI-generierten Ergebnissen.
Idempotency
Eine Operation ist idempotent, wenn sie beliebig oft ausgeführt werden kann und immer dasselbe Ergebnis liefert wie beim ersten Mal – entscheidend für robuste APIs und verteilte Systeme.
Inference Optimization
Techniken, die die Ausführung von KI-Modellen schneller und günstiger machen – von KV-Cache über Batching bis Speculative Decoding.
JSON Mode / Structured Output
Eine Funktion moderner LLM-APIs, die garantiert, dass die Modellantwort valides JSON ist – essenziell für die Integration von KI in Software-Pipelines und Datenverarbeitung.
AI Coding Assistants
Software-Tools, die KI-Modelle nutzen, um Entwickler beim Programmieren zu unterstützen – von Autovervollständigung über Code-Generierung bis hin zu autonomem Vibe Coding in der IDE.
AI Content Creation
Der Einsatz von KI-Tools zur Erstellung von Marketing-Inhalten – von Blog-Artikeln und Social-Media-Posts über Produktbeschreibungen bis zu Bildern und Videos, mit dem Ziel, Qualität und Geschwindigkeit zu steigern.
AI Orchestration
Das Koordinieren mehrerer KI-Komponenten – Modelle, Tools, Datenquellen und Agenten – zu einem zusammenhängenden Workflow, der automatisch die richtigen Schritte in der richtigen Reihenfolge ausführt.
AI Personalization
Der Einsatz von KI und Machine Learning, um Inhalte, Produkte und Erlebnisse in Echtzeit an individuelle Nutzer anzupassen – von Produktempfehlungen über dynamische Websites bis zu personalisierten E-Mails.
LangChain / LlamaIndex
Die zwei populärsten Frameworks für LLM-Anwendungen – LangChain für Chains und Agents, LlamaIndex für RAG und Daten-Indexierung.
Latency vs. Throughput
Die zwei fundamentalen Performance-Metriken – Latenz misst wie schnell, Throughput misst wie viel. Oft ein Trade-off, beide wichtig für verschiedene Use Cases.
Llama (Large Language Model Meta AI)
Metas Familie von Open-Weight-Sprachmodellen, die das KI-Ökosystem demokratisiert haben – von Llama 1 (2023) bis Llama 3.3 (2025) das meistgenutzte Open-Weight-Modell weltweit.
LoRA / QLoRA
Effiziente Fine-Tuning-Methoden, die nur einen Bruchteil der Modellparameter anpassen – LoRA (Low-Rank Adaptation) macht Fine-Tuning auf Consumer-Hardware möglich.
Marketing Automation
Software-gestützte Automatisierung von Marketing-Prozessen – von E-Mail-Kampagnen über Lead Nurturing bis zu Social-Media-Planung, zunehmend verstärkt durch KI für Personalisierung und Optimierung.
Mistral AI
Ein französisches KI-Unternehmen, das effiziente Open-Weight-Sprachmodelle entwickelt – von Mistral 7B über Mixtral bis Mistral Large, bekannt für hervorragendes Preis-Leistungs-Verhältnis.
MLflow
Eine Open-Source-Plattform für den gesamten ML-Lifecycle: Experiment-Tracking, Modell-Registry, Deployment und Reproduzierbarkeit von ML-Projekten.
Model Context Protocol
Ein offenes Protokoll von Anthropic, das KI-Modellen standardisierten Zugriff auf externe Datenquellen, Tools und Systeme ermöglicht – wie ein universeller USB-C-Anschluss für KI-Anwendungen.
Model Deployment
Der Prozess, ein trainiertes ML-Modell in eine Produktionsumgebung zu bringen, wo es Vorhersagen für echte Nutzer und Anwendungen liefert.
Model Registry
Ein zentrales Repository zur Versionierung, Speicherung und Verwaltung von Machine-Learning-Modellen – mit Metadaten, Lineage und Deployment-Status.
Monitoring
Die kontinuierliche Überwachung von KI-Systemen in Produktion, um Performance-Probleme, Datenänderungen und Modellverschlechterung frühzeitig zu erkennen.
Minimum Viable Product
Die einfachste Version eines KI-Produkts, die echten Nutzern einen Mehrwert liefert – der nächste Schritt nach einem erfolgreichen Proof of Concept.
Network Effects
Ein ökonomisches Phänomen, bei dem ein Produkt oder Service mit jedem neuen Nutzer wertvoller wird – ein zentraler Wettbewerbsvorteil von KI-Plattformen und Daten-Ökosystemen.
North Star Metric (NSM)
Die zentrale Kennzahl, die den Kernwert eines Produkts für Kunden misst – der Kompass für Produktentscheidungen und Team-Alignment.
OAuth 2.0
Ein offenes Autorisierungsprotokoll, das Anwendungen begrenzten Zugriff auf Nutzerkonten ermöglicht – ohne dass der Nutzer sein Passwort teilen muss.
Open Neural Network Exchange
Ein offenes Format für ML-Modelle, das Portabilität zwischen Frameworks ermöglicht – ein Modell in PyTorch trainieren und in TensorFlow oder auf Edge-Geräten ausführen.
Open-Weight Models
KI-Modelle, deren trainierte Gewichte öffentlich verfügbar sind und lokal oder auf eigener Infrastruktur betrieben werden können – im Gegensatz zu proprietären Modellen wie GPT-4, die nur über APIs zugänglich sind.
Platform Economy
Ein Wirtschaftsmodell, bei dem digitale Plattformen Anbieter und Nachfrager zusammenbringen und dabei Netzwerkeffekte nutzen – je mehr Teilnehmer, desto wertvoller die Plattform.
Prompt Caching
Eine Optimierungstechnik bei LLM-APIs, bei der wiederkehrende Teile eines Prompts (z.B. System-Prompts oder lange Dokumente) gecacht werden, um Latenz und Kosten zu reduzieren.
Prompt Chaining
Eine Technik, bei der komplexe Aufgaben in mehrere aufeinanderfolgende LLM-Aufrufe zerlegt werden – die Ausgabe eines Prompts wird zur Eingabe des nächsten.
Prompt Compression
Techniken, um Prompts zu verkürzen ohne wesentliche Informationen zu verlieren – für geringere Token-Kosten, niedrigere Latenz und bessere Nutzung des Kontextfensters.
Prompt Engineering
Die Kunst und Technik, Anweisungen für KI-Sprachmodelle so zu formulieren, dass sie optimale und zielgerichtete Ergebnisse liefern.
Prompt Templates
Vorgefertigte, parametrisierbare Prompt-Strukturen, die konsistente und qualitativ hochwertige Ergebnisse von LLMs sicherstellen – von einfachen Textbausteinen bis zu komplexen Chain-of-Thought-Vorlagen.
Proof of Concept
Ein schneller, begrenzter Test, der zeigt, ob eine KI-Idee technisch machbar ist und das gewünschte Ergebnis liefern kann – bevor größere Investitionen getätigt werden.
PyTorch
Ein Open-Source Deep Learning Framework von Meta, das für seine Flexibilität, dynamische Graphen und Python-native Entwicklung bekannt ist – der Standard in Forschung und zunehmend in Produktion.
ReAct (Reasoning + Acting)
Ein Prompting-Framework, das Reasoning (Denken) und Acting (Handeln) kombiniert – das LLM denkt laut nach, führt Aktionen aus und beobachtet die Ergebnisse.
Red Teaming
Ein systematischer Ansatz, bei dem Experten versuchen, Schwachstellen in KI-Systemen zu finden – durch Simulation von Angriffen, Missbrauch und Edge Cases.
Semantic Search
Eine Suchmethode, die die Bedeutung einer Anfrage versteht statt nur nach exakten Keywords zu suchen – ermöglicht durch Embeddings und Vektordatenbanken.
SOLID Principles
Fünf fundamentale Designprinzipien der objektorientierten Programmierung, die zu wartbarem, erweiterbarem und testbarem Code führen.
Stable Diffusion
Ein Open-Source Bildgenerierungsmodell, das aus Textbeschreibungen fotorealistische Bilder erzeugt – basierend auf der Diffusions-Architektur.
Structured Output
Eine Technik, bei der LLMs ihre Antworten in einem vordefinierten Format (meist JSON) ausgeben, statt freiem Text – für zuverlässige Integration in Anwendungen.
Synthetic Data
Künstlich generierte Trainingsdaten, die echte Daten ergänzen oder ersetzen – von LLM-generierten Texten bis zu simulierten Sensordaten.
System Prompt
Eine versteckte Anweisung an ein Sprachmodell, die dessen Rolle, Verhalten und Einschränkungen für eine gesamte Konversation definiert.
Temperature
Ein Parameter bei der Textgenerierung, der steuert, wie kreativ oder deterministisch die Ausgabe eines Sprachmodells ist.
TensorFlow
Ein Open-Source Deep Learning Framework von Google, bekannt für Produktion, Mobile Deployment und das Keras-API – historisch das erste große DL-Framework.
Text-to-Image (T2I)
KI-Systeme, die aus natürlichsprachlichen Beschreibungen Bilder generieren – von DALL-E über Midjourney bis Stable Diffusion.
Tool Use / Function Calling
Die Fähigkeit von Sprachmodellen, externe Werkzeuge und Funktionen aufzurufen – von Websuche über Code-Ausführung bis zu API-Aufrufen.
Top-p / Nucleus Sampling
Eine Sampling-Methode bei der Textgenerierung, die nur die wahrscheinlichsten Tokens berücksichtigt, deren kumulative Wahrscheinlichkeit einen Schwellenwert p erreicht.
Transfer Learning
Eine Technik, bei der ein auf großen Datenmengen vortrainiertes Modell für eine neue, spezifische Aufgabe angepasst wird – spart enorm Zeit, Daten und Rechenleistung.
Vibe Coding
Ein Programmierparadigma, bei dem Entwickler hauptsächlich in natürlicher Sprache mit KI-Assistenten kommunizieren und den generierten Code übernehmen, statt ihn Zeile für Zeile selbst zu schreiben.
Voice AI / Text-to-Speech (TTS) / Speech-to-Text (STT)
Technologien, die Text in natürlich klingende Sprache umwandeln (TTS) und gesprochene Sprache verstehen (STT) – von ElevenLabs über OpenAI Voice bis hin zu Echtzeit-Konversation mit KI.
WebAssembly (WASM)
Ein binäres Instruktionsformat für den Browser, das es ermöglicht, Code in Sprachen wie C, C++, Rust oder Go mit nahezu nativer Geschwindigkeit im Browser auszuführen.
WebSockets
Ein Kommunikationsprotokoll für bidirektionale Echtzeit-Verbindungen zwischen Client und Server – im Gegensatz zu HTTP bleibt die Verbindung dauerhaft offen.
Weights & Biases (W&B, wandb)
Eine MLOps-Plattform für Experiment-Tracking, Modell-Visualisierung und Team-Kollaboration – der Standard in der KI-Forschung und bei führenden KI-Unternehmen.
Whisper
OpenAIs Open-Source Spracherkennungsmodell – wandelt gesprochene Sprache in Text um, unterstützt 99 Sprachen und funktioniert auch lokal.