<EbeneX/>
Praxis Daten

A/B Testing

A/B Testing

Eine Methode zum Vergleich zweier Varianten (A und B) durch zufällige Aufteilung der Nutzer – der Goldstandard für datengetriebene Entscheidungen.

LLM Praxis

Agent

AI Agent

Ein KI-System, das eigenständig Aufgaben plant, Entscheidungen trifft und Tools nutzt, um komplexe Ziele zu erreichen – über einfache Frage-Antwort-Interaktion hinaus.

Praxis LLM

Agentic AI Frameworks

Agentic AI Frameworks

Software-Frameworks, die es ermöglichen, autonome KI-Agenten zu bauen, die eigenständig Aufgaben planen, Tools nutzen und miteinander kooperieren – von Einzel-Agenten bis zu Multi-Agent-Systemen.

LLM Praxis

Agentic Workflows

Agentic Workflows

KI-Systeme, in denen LLMs autonom planen, Entscheidungen treffen und Tools nutzen um komplexe Aufgaben mehrstufig zu lösen – der nächste Schritt nach einfachen Chat-Antworten.

Praxis Digital

Agile

Agile

Ein Sammelbegriff für iterative Entwicklungsmethoden wie Scrum und Kanban, die schnelle Feedback-Zyklen, Flexibilität und kontinuierliche Verbesserung in den Mittelpunkt stellen.

Praxis Grundlagen

AI Readiness

AI Readiness

Der Grad der Bereitschaft eines Unternehmens, KI erfolgreich einzusetzen – umfasst Daten, Technologie, Prozesse, Kultur und Kompetenzen.

Praxis LLM

AI Search

AI Search / Search-Augmented Generation

Eine neue Generation von Suchmaschinen, die LLMs nutzen, um Suchergebnisse zu verstehen, zusammenzufassen und direkt als Antwort zu präsentieren – statt nur Links aufzulisten.

Praxis

AI Use Case

AI Use Case

Ein konkreter Anwendungsfall, in dem Künstliche Intelligenz einen messbaren Mehrwert für ein Unternehmen oder einen Prozess liefert.

Praxis Grundlagen

Automation vs. Augmentation

Automation vs. Augmentation

Zwei grundlegende Strategien für den KI-Einsatz: Automation ersetzt menschliche Arbeit vollständig, Augmentation unterstützt und verstärkt menschliche Fähigkeiten.

Praxis Grundlagen

AutoML

AutoML

Automatisiertes Machine Learning – Tools und Techniken die den ML-Workflow automatisieren: von Feature Engineering über Modellauswahl bis Hyperparameter-Tuning.

Grundlagen Praxis

Benchmark

Benchmark

Standardisierte Tests und Datensätze, mit denen KI-Modelle objektiv verglichen werden – von MMLU für Allgemeinwissen bis HumanEval für Code-Fähigkeiten.

DevOps Praxis

Canary Deployment

Canary Deployment / Canary Release

Eine Deployment-Strategie, bei der neue Modellversionen zunächst nur einem kleinen Teil der Nutzer ausgeliefert werden, um Probleme früh zu erkennen.

LLM Praxis

Chain-of-Thought

Chain-of-Thought Prompting

Eine Prompting-Technik, bei der das Modell aufgefordert wird, Schritt für Schritt zu denken – verbessert die Reasoning-Fähigkeiten von LLMs dramatisch.

Digital Praxis

Change Management

Change Management

Ein strukturierter Ansatz, um Menschen und Organisationen durch Veränderungen zu begleiten – besonders wichtig bei der Einführung von KI, wo Ängste, Widerstände und neue Arbeitsweisen aufeinandertreffen.

LLM Praxis

Chunking & Reranking

Chunking & Reranking

Zwei Schlüsseltechniken für RAG-Systeme: Chunking teilt Dokumente in suchbare Abschnitte, Reranking sortiert die Ergebnisse nach Relevanz.

Praxis Architektur

Clean Code

Clean Code

Prinzipien und Praktiken für lesbaren, wartbaren und verständlichen Quellcode – Code, der sich wie gut geschriebene Prosa liest.

Praxis LLM

Computer Use

Computer Use / Browser Agents

Die Fähigkeit von KI-Modellen, einen Computer wie ein Mensch zu bedienen – Klicken, Tippen, Scrollen und Navigieren auf dem Bildschirm, um Aufgaben autonom in beliebigen Anwendungen auszuführen.

LLM Praxis

Context Engineering

Context Engineering

Die Kunst, das begrenzte Kontextfenster eines LLMs optimal zu nutzen – durch Priorisierung, Kompression und intelligente Auswahl relevanter Informationen.

Daten Praxis

Data Governance

Data Governance

Ein Framework aus Richtlinien, Prozessen und Standards zur Verwaltung von Daten – stellt Qualität, Sicherheit, Compliance und Nutzbarkeit von Daten sicher.

Daten Praxis

Datenannotation

Data Annotation

Der Prozess, Rohdaten mit zusätzlichen Informationen (Labels, Tags, Markierungen) zu versehen, damit KI-Modelle daraus lernen können.

Web Praxis

Dependency Injection

Dependency Injection (DI)

Ein Entwurfsmuster, bei dem Abhängigkeiten einer Klasse nicht intern erstellt, sondern von außen übergeben werden – für bessere Testbarkeit, Flexibilität und lose Kopplung.

Architektur Praxis

Design Patterns

Design Patterns

Bewährte Lösungsschablonen für wiederkehrende Probleme in der Softwareentwicklung – von Singleton über Observer bis Factory.

Digital Praxis

Design Thinking

Design Thinking

Eine iterative Innovationsmethode, die Empathie für Nutzer, kreative Ideenfindung und schnelles Prototyping kombiniert – um Probleme zu lösen, die noch nicht klar definiert sind.

DevOps Praxis

DevOps

MLOps (Machine Learning Operations)

Die Praxis, Machine-Learning-Modelle zuverlässig und effizient in Produktion zu bringen und zu betreiben – die Verbindung von ML, DevOps und Data Engineering.

Digital Praxis

Digital

AI Strategy

Ein systematischer Plan, wie ein Unternehmen Künstliche Intelligenz einsetzen will – von der Identifizierung geeigneter Use Cases über den Aufbau von Kompetenzen bis zur Skalierung in Produktion.

Digital Praxis

Digital Twin

Digital Twin

Eine virtuelle Nachbildung eines realen Objekts, Prozesses oder Systems, die mit Echtzeitdaten gespeist wird und durch KI-gestützte Simulation Vorhersagen, Optimierungen und Was-wäre-wenn-Analysen ermöglicht.

Digital Praxis

Digitale Transformation

Digital Transformation

Der grundlegende Wandel von Unternehmen, Organisationen und Gesellschaft durch den Einsatz digitaler Technologien – nicht nur Prozesse digitalisieren, sondern Geschäftsmodelle, Kultur und Strukturen neu denken.

DevOps Praxis

Experiment Tracking

Experiment Tracking

Die systematische Dokumentation von ML-Experimenten – Hyperparameter, Metriken, Code-Versionen und Artefakte, um Ergebnisse reproduzierbar und vergleichbar zu machen.

LLM Praxis

Fine-Tuning

Fine-Tuning

Das gezielte Nachtrainieren eines vortrainierten KI-Modells auf spezifische Daten oder Aufgaben, um es für einen bestimmten Einsatzzweck zu optimieren.

LLM Praxis

Function Calling

Function Calling

Eine Fähigkeit moderner LLMs, strukturierte Funktionsaufrufe zu generieren, die externe Tools, APIs oder Datenbanken ansprechen können.

LLM Praxis

Gemini

Gemini

Googles Familie multimodaler KI-Modelle, die Text, Code, Bild, Audio und Video nativ verarbeiten – von der kompakten Nano-Variante bis zum leistungsstärksten Ultra-Modell.

Grundlagen Praxis

GPU / TPU

GPU / TPU

Spezialisierte Hardware für KI-Berechnungen – GPUs (Graphics Processing Units) und TPUs (Tensor Processing Units) ermöglichen das Training und die Ausführung moderner KI-Modelle.

Praxis LLM

Hugging Face

Hugging Face

Die zentrale Plattform des ML-Ökosystems – mit dem Model Hub, Datasets, Spaces und der Transformers-Bibliothek. Das 'GitHub für Machine Learning'.

Praxis

Human-in-the-Loop

Human-in-the-Loop (HITL)

Ein Ansatz, bei dem Menschen in den KI-Workflow eingebunden werden – zur Überprüfung, Korrektur oder finalen Entscheidung bei KI-generierten Ergebnissen.

Web Praxis

Idempotenz

Idempotency

Eine Operation ist idempotent, wenn sie beliebig oft ausgeführt werden kann und immer dasselbe Ergebnis liefert wie beim ersten Mal – entscheidend für robuste APIs und verteilte Systeme.

Architektur Praxis

Inference Optimization

Inference Optimization

Techniken, die die Ausführung von KI-Modellen schneller und günstiger machen – von KV-Cache über Batching bis Speculative Decoding.

LLM Praxis

JSON Mode / Structured Output

JSON Mode / Structured Output

Eine Funktion moderner LLM-APIs, die garantiert, dass die Modellantwort valides JSON ist – essenziell für die Integration von KI in Software-Pipelines und Datenverarbeitung.

Praxis LLM

KI-Coding-Assistenten

AI Coding Assistants

Software-Tools, die KI-Modelle nutzen, um Entwickler beim Programmieren zu unterstützen – von Autovervollständigung über Code-Generierung bis hin zu autonomem Vibe Coding in der IDE.

Marketing Praxis

KI-Content-Erstellung

AI Content Creation

Der Einsatz von KI-Tools zur Erstellung von Marketing-Inhalten – von Blog-Artikeln und Social-Media-Posts über Produktbeschreibungen bis zu Bildern und Videos, mit dem Ziel, Qualität und Geschwindigkeit zu steigern.

Praxis Architektur

KI-Orchestrierung

AI Orchestration

Das Koordinieren mehrerer KI-Komponenten – Modelle, Tools, Datenquellen und Agenten – zu einem zusammenhängenden Workflow, der automatisch die richtigen Schritte in der richtigen Reihenfolge ausführt.

Marketing Praxis

KI-Personalisierung

AI Personalization

Der Einsatz von KI und Machine Learning, um Inhalte, Produkte und Erlebnisse in Echtzeit an individuelle Nutzer anzupassen – von Produktempfehlungen über dynamische Websites bis zu personalisierten E-Mails.

Praxis LLM

LangChain / LlamaIndex

LangChain / LlamaIndex

Die zwei populärsten Frameworks für LLM-Anwendungen – LangChain für Chains und Agents, LlamaIndex für RAG und Daten-Indexierung.

Architektur Praxis

Latency vs. Throughput

Latency vs. Throughput

Die zwei fundamentalen Performance-Metriken – Latenz misst wie schnell, Throughput misst wie viel. Oft ein Trade-off, beide wichtig für verschiedene Use Cases.

LLM Praxis

Llama

Llama (Large Language Model Meta AI)

Metas Familie von Open-Weight-Sprachmodellen, die das KI-Ökosystem demokratisiert haben – von Llama 1 (2023) bis Llama 3.3 (2025) das meistgenutzte Open-Weight-Modell weltweit.

LLM Praxis

LoRA / QLoRA

LoRA / QLoRA

Effiziente Fine-Tuning-Methoden, die nur einen Bruchteil der Modellparameter anpassen – LoRA (Low-Rank Adaptation) macht Fine-Tuning auf Consumer-Hardware möglich.

Marketing Praxis

Marketing Automation

Marketing Automation

Software-gestützte Automatisierung von Marketing-Prozessen – von E-Mail-Kampagnen über Lead Nurturing bis zu Social-Media-Planung, zunehmend verstärkt durch KI für Personalisierung und Optimierung.

LLM Praxis

Mistral AI

Mistral AI

Ein französisches KI-Unternehmen, das effiziente Open-Weight-Sprachmodelle entwickelt – von Mistral 7B über Mixtral bis Mistral Large, bekannt für hervorragendes Preis-Leistungs-Verhältnis.

DevOps Praxis

MLflow

MLflow

Eine Open-Source-Plattform für den gesamten ML-Lifecycle: Experiment-Tracking, Modell-Registry, Deployment und Reproduzierbarkeit von ML-Projekten.

Architektur LLM Praxis

Model Context Protocol (MCP)

Model Context Protocol

Ein offenes Protokoll von Anthropic, das KI-Modellen standardisierten Zugriff auf externe Datenquellen, Tools und Systeme ermöglicht – wie ein universeller USB-C-Anschluss für KI-Anwendungen.

DevOps Praxis

Model Deployment

Model Deployment

Der Prozess, ein trainiertes ML-Modell in eine Produktionsumgebung zu bringen, wo es Vorhersagen für echte Nutzer und Anwendungen liefert.

DevOps Praxis

Model Registry

Model Registry

Ein zentrales Repository zur Versionierung, Speicherung und Verwaltung von Machine-Learning-Modellen – mit Metadaten, Lineage und Deployment-Status.

DevOps Praxis

Monitoring

Monitoring

Die kontinuierliche Überwachung von KI-Systemen in Produktion, um Performance-Probleme, Datenänderungen und Modellverschlechterung frühzeitig zu erkennen.

Praxis

MVP (Minimum Viable Product)

Minimum Viable Product

Die einfachste Version eines KI-Produkts, die echten Nutzern einen Mehrwert liefert – der nächste Schritt nach einem erfolgreichen Proof of Concept.

Digital Praxis

Netzwerkeffekte

Network Effects

Ein ökonomisches Phänomen, bei dem ein Produkt oder Service mit jedem neuen Nutzer wertvoller wird – ein zentraler Wettbewerbsvorteil von KI-Plattformen und Daten-Ökosystemen.

Business Praxis

North Star Metric

North Star Metric (NSM)

Die zentrale Kennzahl, die den Kernwert eines Produkts für Kunden misst – der Kompass für Produktentscheidungen und Team-Alignment.

Sicherheit Praxis

OAuth

OAuth 2.0

Ein offenes Autorisierungsprotokoll, das Anwendungen begrenzten Zugriff auf Nutzerkonten ermöglicht – ohne dass der Nutzer sein Passwort teilen muss.

Praxis Architektur

ONNX

Open Neural Network Exchange

Ein offenes Format für ML-Modelle, das Portabilität zwischen Frameworks ermöglicht – ein Modell in PyTorch trainieren und in TensorFlow oder auf Edge-Geräten ausführen.

LLM Praxis

Open-Weight-Modelle

Open-Weight Models

KI-Modelle, deren trainierte Gewichte öffentlich verfügbar sind und lokal oder auf eigener Infrastruktur betrieben werden können – im Gegensatz zu proprietären Modellen wie GPT-4, die nur über APIs zugänglich sind.

Digital Praxis

Platform Economy

Platform Economy

Ein Wirtschaftsmodell, bei dem digitale Plattformen Anbieter und Nachfrager zusammenbringen und dabei Netzwerkeffekte nutzen – je mehr Teilnehmer, desto wertvoller die Plattform.

Praxis DevOps

Prompt Caching

Prompt Caching

Eine Optimierungstechnik bei LLM-APIs, bei der wiederkehrende Teile eines Prompts (z.B. System-Prompts oder lange Dokumente) gecacht werden, um Latenz und Kosten zu reduzieren.

LLM Praxis

Prompt Chaining

Prompt Chaining

Eine Technik, bei der komplexe Aufgaben in mehrere aufeinanderfolgende LLM-Aufrufe zerlegt werden – die Ausgabe eines Prompts wird zur Eingabe des nächsten.

LLM Praxis

Prompt Compression

Prompt Compression

Techniken, um Prompts zu verkürzen ohne wesentliche Informationen zu verlieren – für geringere Token-Kosten, niedrigere Latenz und bessere Nutzung des Kontextfensters.

LLM Praxis

Prompt Engineering

Prompt Engineering

Die Kunst und Technik, Anweisungen für KI-Sprachmodelle so zu formulieren, dass sie optimale und zielgerichtete Ergebnisse liefern.

Praxis LLM

Prompt Templates

Prompt Templates

Vorgefertigte, parametrisierbare Prompt-Strukturen, die konsistente und qualitativ hochwertige Ergebnisse von LLMs sicherstellen – von einfachen Textbausteinen bis zu komplexen Chain-of-Thought-Vorlagen.

Praxis

Proof of Concept (PoC)

Proof of Concept

Ein schneller, begrenzter Test, der zeigt, ob eine KI-Idee technisch machbar ist und das gewünschte Ergebnis liefern kann – bevor größere Investitionen getätigt werden.

DevOps Praxis

PyTorch

PyTorch

Ein Open-Source Deep Learning Framework von Meta, das für seine Flexibilität, dynamische Graphen und Python-native Entwicklung bekannt ist – der Standard in Forschung und zunehmend in Produktion.

LLM Praxis

ReAct Prompting

ReAct (Reasoning + Acting)

Ein Prompting-Framework, das Reasoning (Denken) und Acting (Handeln) kombiniert – das LLM denkt laut nach, führt Aktionen aus und beobachtet die Ergebnisse.

Sicherheit Praxis

Red Teaming

Red Teaming

Ein systematischer Ansatz, bei dem Experten versuchen, Schwachstellen in KI-Systemen zu finden – durch Simulation von Angriffen, Missbrauch und Edge Cases.

Daten Praxis

Semantische Suche

Semantic Search

Eine Suchmethode, die die Bedeutung einer Anfrage versteht statt nur nach exakten Keywords zu suchen – ermöglicht durch Embeddings und Vektordatenbanken.

Architektur Praxis

SOLID-Prinzipien

SOLID Principles

Fünf fundamentale Designprinzipien der objektorientierten Programmierung, die zu wartbarem, erweiterbarem und testbarem Code führen.

Bild-KI Praxis

Stable Diffusion

Stable Diffusion

Ein Open-Source Bildgenerierungsmodell, das aus Textbeschreibungen fotorealistische Bilder erzeugt – basierend auf der Diffusions-Architektur.

LLM Praxis

Structured Output

Structured Output

Eine Technik, bei der LLMs ihre Antworten in einem vordefinierten Format (meist JSON) ausgeben, statt freiem Text – für zuverlässige Integration in Anwendungen.

Daten Praxis

Synthetische Daten

Synthetic Data

Künstlich generierte Trainingsdaten, die echte Daten ergänzen oder ersetzen – von LLM-generierten Texten bis zu simulierten Sensordaten.

LLM Praxis

System Prompt

System Prompt

Eine versteckte Anweisung an ein Sprachmodell, die dessen Rolle, Verhalten und Einschränkungen für eine gesamte Konversation definiert.

LLM Praxis

Temperatur

Temperature

Ein Parameter bei der Textgenerierung, der steuert, wie kreativ oder deterministisch die Ausgabe eines Sprachmodells ist.

DevOps Praxis

TensorFlow

TensorFlow

Ein Open-Source Deep Learning Framework von Google, bekannt für Produktion, Mobile Deployment und das Keras-API – historisch das erste große DL-Framework.

LLM Praxis

Text-to-Image

Text-to-Image (T2I)

KI-Systeme, die aus natürlichsprachlichen Beschreibungen Bilder generieren – von DALL-E über Midjourney bis Stable Diffusion.

LLM Praxis

Tool Use / Function Calling

Tool Use / Function Calling

Die Fähigkeit von Sprachmodellen, externe Werkzeuge und Funktionen aufzurufen – von Websuche über Code-Ausführung bis zu API-Aufrufen.

LLM Praxis

Top-p (Nucleus Sampling)

Top-p / Nucleus Sampling

Eine Sampling-Methode bei der Textgenerierung, die nur die wahrscheinlichsten Tokens berücksichtigt, deren kumulative Wahrscheinlichkeit einen Schwellenwert p erreicht.

Grundlagen Praxis

Transfer Learning

Transfer Learning

Eine Technik, bei der ein auf großen Datenmengen vortrainiertes Modell für eine neue, spezifische Aufgabe angepasst wird – spart enorm Zeit, Daten und Rechenleistung.

Praxis Web

Vibe Coding

Vibe Coding

Ein Programmierparadigma, bei dem Entwickler hauptsächlich in natürlicher Sprache mit KI-Assistenten kommunizieren und den generierten Code übernehmen, statt ihn Zeile für Zeile selbst zu schreiben.

LLM Praxis

Voice AI & Text-to-Speech

Voice AI / Text-to-Speech (TTS) / Speech-to-Text (STT)

Technologien, die Text in natürlich klingende Sprache umwandeln (TTS) und gesprochene Sprache verstehen (STT) – von ElevenLabs über OpenAI Voice bis hin zu Echtzeit-Konversation mit KI.

Web Praxis

WebAssembly

WebAssembly (WASM)

Ein binäres Instruktionsformat für den Browser, das es ermöglicht, Code in Sprachen wie C, C++, Rust oder Go mit nahezu nativer Geschwindigkeit im Browser auszuführen.

Praxis Architektur

WebSockets

WebSockets

Ein Kommunikationsprotokoll für bidirektionale Echtzeit-Verbindungen zwischen Client und Server – im Gegensatz zu HTTP bleibt die Verbindung dauerhaft offen.

DevOps Praxis

Weights & Biases (W&B)

Weights & Biases (W&B, wandb)

Eine MLOps-Plattform für Experiment-Tracking, Modell-Visualisierung und Team-Kollaboration – der Standard in der KI-Forschung und bei führenden KI-Unternehmen.

Praxis LLM

Whisper

Whisper

OpenAIs Open-Source Spracherkennungsmodell – wandelt gesprochene Sprache in Text um, unterstützt 99 Sprachen und funktioniert auch lokal.