<EbeneX/>
Sicherheit Grundlagen

Adversarial Attacks

Adversarial Attacks

Gezielte Manipulationen von Eingabedaten, die KI-Modelle zu falschen Vorhersagen verleiten – oft für Menschen unsichtbar, aber für das Modell verheerend.

Grundlagen LLM

Agent Memory

Agent Memory

Mechanismen, die KI-Agenten ermöglichen, Informationen über Konversationen und Sitzungen hinweg zu speichern und abzurufen – für kontextbewusstes Handeln.

Sicherheit Grundlagen

AI Act (EU)

EU AI Act

Die weltweit erste umfassende KI-Regulierung – das EU-Gesetz klassifiziert KI-Systeme nach Risiko und stellt Anforderungen an Transparenz, Sicherheit und menschliche Aufsicht.

Praxis Grundlagen

AI Readiness

AI Readiness

Der Grad der Bereitschaft eines Unternehmens, KI erfolgreich einzusetzen – umfasst Daten, Technologie, Prozesse, Kultur und Kompetenzen.

Grundlagen Architektur

Aktivierungsfunktion

Activation Function

Mathematische Funktionen in neuronalen Netzen, die Nicht-Linearität einführen – ohne sie könnte ein Netz nur lineare Zusammenhänge lernen, egal wie viele Layers es hat.

Grundlagen

Algorithmus

Algorithm

Eine eindeutige, schrittweise Anleitung zur Lösung eines Problems oder zur Durchführung einer Berechnung – das Grundprinzip hinter jeder Software und KI.

Grundlagen LLM

Alignment Tax

Alignment Tax

Der Performance-Verlust, der entsteht, wenn KI-Modelle auf Sicherheit und Alignment trainiert werden – der Trade-off zwischen Fähigkeit und Sicherheit.

Architektur Grundlagen

Attention Mechanism

Attention Mechanism

Der Kernmechanismus moderner KI-Modelle – ermöglicht es einem Modell, sich auf die relevantesten Teile der Eingabe zu konzentrieren, statt alles gleich zu gewichten.

Mathematik Grundlagen

AUC (Area Under Curve)

Area Under the ROC Curve (AUC-ROC)

Die Fläche unter der ROC-Kurve – ein einzelner Wert zwischen 0 und 1, der die Gesamtqualität eines Klassifikators misst.

Praxis Grundlagen

Automation vs. Augmentation

Automation vs. Augmentation

Zwei grundlegende Strategien für den KI-Einsatz: Automation ersetzt menschliche Arbeit vollständig, Augmentation unterstützt und verstärkt menschliche Fähigkeiten.

Praxis Grundlagen

AutoML

AutoML

Automatisiertes Machine Learning – Tools und Techniken die den ML-Workflow automatisieren: von Feature Engineering über Modellauswahl bis Hyperparameter-Tuning.

Grundlagen Grundlagen

Autoregressive Model

Autoregressive Model

Ein Modelltyp, der Sequenzen Token für Token generiert – jedes neue Token basiert auf allen vorherigen. Das Grundprinzip hinter GPT und anderen LLMs.

Grundlagen

Backpropagation

Backpropagation

Der Algorithmus, der berechnet, wie stark jedes Gewicht in einem neuronalen Netz zum Gesamtfehler beiträgt – die Grundlage für das Training tiefer Netze.

Architektur Grundlagen

Batch Normalization

Batch Normalization

Eine Technik, die die Eingaben jeder Schicht normalisiert – stabilisiert das Training, ermöglicht höhere Lernraten und beschleunigt die Konvergenz deutlich.

Mathematik Grundlagen

Bayes' Theorem

Bayes' Theorem / Bayes' Rule

Die mathematische Grundlage für probabilistisches Denken – wie wir Überzeugungen basierend auf neuen Beweisen aktualisieren. Fundament für ML und Statistik.

Grundlagen Praxis

Benchmark

Benchmark

Standardisierte Tests und Datensätze, mit denen KI-Modelle objektiv verglichen werden – von MMLU für Allgemeinwissen bis HumanEval für Code-Fähigkeiten.

Sicherheit Grundlagen

Bias (Verzerrung)

Bias

Systematische Verzerrungen in KI-Systemen, die zu unfairen oder diskriminierenden Ergebnissen führen – verursacht durch einseitige Trainingsdaten, Algorithmen oder Designentscheidungen.

Mathematik Grundlagen

Bias-Variance Tradeoff

Bias-Variance Tradeoff

Das fundamentale Dilemma im Machine Learning – einfache Modelle (hoher Bias) vs. komplexe Modelle (hohe Varianz). Die Kunst liegt in der Balance.

Grundlagen Daten

BLEU / ROUGE

BLEU / ROUGE

Automatische Metriken zur Bewertung von generiertem Text – BLEU für Übersetzungen (Precision-basiert), ROUGE für Zusammenfassungen (Recall-basiert).

Grundlagen Grundlagen

Catastrophic Forgetting

Catastrophic Forgetting / Catastrophic Interference

Ein Phänomen, bei dem neuronale Netze beim Lernen neuer Aufgaben das Wissen über frühere Aufgaben verlieren – ein zentrales Problem für kontinuierliches Lernen.

Grundlagen LLM

Chat-Rollen (System, User, Assistant)

Chat Roles / Message Roles

Die drei Rollen in Chat-APIs – System für Anweisungen, User für Nutzereingaben, Assistant für Modellantworten. Grundlage für strukturierte LLM-Kommunikation.

LLM Grundlagen

ChatGPT / GPT

ChatGPT / GPT

Eine Familie von Large Language Models von OpenAI – GPT steht für 'Generative Pre-trained Transformer'. ChatGPT ist die Chat-optimierte Version, die KI für Millionen Menschen zugänglich gemacht hat.

LLM Grundlagen

Claude (Anthropic)

Claude

Claude ist die KI-Modell-Familie von Anthropic – entwickelt mit besonderem Fokus auf Sicherheit, Ehrlichkeit und hilfreiche Interaktion. Claude konkurriert direkt mit GPT-5 und Gemini 3.

Architektur Grundlagen

CNN (Convolutional Neural Network)

Convolutional Neural Network

Eine neuronale Netzwerk-Architektur, die speziell für die Verarbeitung von Bildern und räumlichen Daten entwickelt wurde und lokale Muster durch Filter erkennt.

Grundlagen Daten

Confusion Matrix

Confusion Matrix

Eine Tabelle, die zeigt wie oft ein Klassifikationsmodell richtig und falsch lag – aufgeschlüsselt nach True/False Positives und Negatives.

Grundlagen Sicherheit

Constitutional AI

Constitutional AI (CAI)

Eine von Anthropic entwickelte Methode, KI-Modelle durch ein Set von Prinzipien (eine 'Verfassung') sicher und hilfreich zu machen – ohne ausschließlich auf menschliches Feedback angewiesen zu sein.

Grundlagen LLM

Context Compression

Context Compression

Techniken zur Komprimierung von Kontext-Informationen für LLMs – um mehr relevante Informationen in das begrenzte Kontextfenster zu packen.

Grundlagen LLM

Context Engineering

Context Engineering

Die Kunst, den richtigen Kontext für LLM-Anfragen zusammenzustellen – welche Informationen, in welcher Reihenfolge, in welchem Format.

Grundlagen Architektur

Continual Learning

Continual Learning / Lifelong Learning

Ein Paradigma, bei dem ML-Modelle kontinuierlich aus neuen Daten lernen, ohne das zuvor Gelernte zu vergessen – eine der größten Herausforderungen in der KI.

Grundlagen LLM

ControlNet

ControlNet

Eine Technik zur Steuerung von Diffusionsmodellen durch zusätzliche Eingaben wie Skizzen, Posen oder Tiefenkarten – für kontrollierbare Bildgenerierung.

UX Grundlagen

Conversational UX

Conversational UX / Conversational Design

UX-Design für dialogbasierte Interfaces wie Chatbots und Sprachassistenten – natürliche Konversation statt klassischer UI-Elemente.

Daten Grundlagen

Cosine Similarity

Cosine Similarity

Ein Ähnlichkeitsmaß, das den Winkel zwischen zwei Vektoren misst – der Standard für den Vergleich von Embeddings in der semantischen Suche und RAG-Systemen.

Grundlagen Architektur

Cross-Entropy

Cross-Entropy Loss

Eine Loss Function, die misst, wie gut eine vorhergesagte Wahrscheinlichkeitsverteilung mit der tatsächlichen Verteilung übereinstimmt – Standard für Klassifikation und LLMs.

Grundlagen Grundlagen

Curriculum Learning

Curriculum Learning

Eine Trainingsstrategie, bei der Modelle zuerst mit einfachen Beispielen trainiert werden und die Schwierigkeit schrittweise erhöht wird – wie in der Schule.

Daten Grundlagen

Data Augmentation

Data Augmentation

Techniken zur künstlichen Vergrößerung von Trainingsdatensätzen durch Transformationen – Rotation, Spiegelung, Rauschen oder semantische Variationen.

Daten Grundlagen

Dataset

Dataset

Eine strukturierte Sammlung von Daten, die für das Training, die Evaluation oder das Testen von KI-Modellen verwendet wird.

Sicherheit Grundlagen

Datenschutz (DSGVO-Kontext)

Data Privacy / GDPR

Der Schutz personenbezogener Daten bei der Entwicklung und dem Einsatz von KI-Systemen – mit besonderem Fokus auf die europäische Datenschutz-Grundverordnung.

Grundlagen DevOps

Distillation (Knowledge Distillation)

Knowledge Distillation

Eine Technik, bei der ein kleines 'Schüler'-Modell trainiert wird, das Verhalten eines großen 'Lehrer'-Modells nachzuahmen – für effizientere Inferenz bei ähnlicher Qualität.

LLM Grundlagen

DPO (Direct Preference Optimization)

Direct Preference Optimization

Eine Trainingsmethode für LLMs, die menschliche Präferenzen direkt in das Modell einbettet – einfacher und stabiler als RLHF, ohne separates Reward Model.

Grundlagen LLM

DreamBooth

DreamBooth

Eine Fine-Tuning-Technik für Diffusionsmodelle, die mit wenigen Bildern neue Konzepte lernt – für personalisierte Bildgenerierung von Personen, Objekten oder Stilen.

DevOps Grundlagen

Drift (Data Drift / Model Drift)

Data Drift / Model Drift / Concept Drift

Die schleichende Verschlechterung eines ML-Modells in Produktion, weil sich die Eingabedaten oder die Zusammenhänge zwischen Eingabe und Ausgabe über die Zeit verändern.

Grundlagen Grundlagen

Dropout

Dropout

Eine Regularisierungstechnik, die während des Trainings zufällig Neuronen deaktiviert – verhindert Overfitting und macht Modelle robuster.

Daten Grundlagen

Embedding Space

Embedding Space

Der hochdimensionale mathematische Raum, in dem Embeddings leben – semantisch ähnliche Konzepte liegen nahe beieinander, verschiedene weit auseinander.

Grundlagen Architektur

Entropy

Entropy

Ein Maß für Unsicherheit oder Informationsgehalt einer Wahrscheinlichkeitsverteilung – fundamental für Informationstheorie, Entscheidungsbäume und Sprachmodelle.

Grundlagen

Epoch / Batch / Iteration

Epoch / Batch / Iteration

Die drei Zeiteinheiten des Machine-Learning-Trainings: Eine Epoch ist ein kompletter Durchlauf aller Daten, ein Batch ist eine Teilmenge, und eine Iteration ist ein Trainingsschritt.

UX Grundlagen

Error Recovery Patterns

Error Recovery Patterns

UX-Patterns für den Umgang mit KI-Fehlern – von hilfreichen Fehlermeldungen bis zu Selbstkorrektur-Mechanismen.

Sicherheit Grundlagen

Explainability (XAI)

Explainability / Explainable AI (XAI)

Die Fähigkeit, Entscheidungen und Vorhersagen von KI-Systemen für Menschen nachvollziehbar und verständlich zu machen.

Grundlagen Sicherheit

Explainable AI (XAI)

Explainable AI (XAI)

Methoden und Techniken, die KI-Entscheidungen für Menschen nachvollziehbar machen – von SHAP-Werten bis zu Attention-Visualisierungen.

UX Grundlagen

Explainable UI

Explainable UI / XAI Interface

UI-Patterns, die KI-Entscheidungen für Nutzer nachvollziehbar machen – von Confidence Scores bis zu Feature-Attributionen.

Sicherheit Grundlagen

Fairness

Fairness

Das Prinzip, dass KI-Systeme alle Personen und Gruppen gleich und gerecht behandeln sollten – ohne systematische Bevorzugung oder Benachteiligung.

UX Grundlagen

Fallback Strategy

Fallback Strategy / Graceful Degradation

Strategien für den Umgang mit KI-Fehlern und Unsicherheit – was passiert, wenn das Modell nicht weiter weiß?

Daten Grundlagen

Feature Engineering

Feature Engineering

Der Prozess, aus Rohdaten aussagekräftige Merkmale (Features) zu extrahieren oder zu erstellen, die einem ML-Modell helfen, bessere Vorhersagen zu treffen.

Daten Grundlagen

Feature Scaling

Feature Scaling

Die Transformation von Features auf vergleichbare Wertebereiche – wichtig für viele ML-Algorithmen wie Gradient Descent, KNN und SVMs.

LLM Grundlagen

Few-Shot / Zero-Shot Learning

Few-Shot / Zero-Shot Learning

Die Fähigkeit von KI-Modellen, Aufgaben mit nur wenigen Beispielen (Few-Shot) oder ganz ohne Beispiele (Zero-Shot) zu lösen.

LLM Grundlagen

Foundation Model

Foundation Model

Große, auf breiten Daten vortrainierte KI-Modelle, die als Grundlage für viele verschiedene Anwendungen dienen – durch Fine-Tuning oder Prompting anpassbar.

Grundlagen Praxis

GPU / TPU

GPU / TPU

Spezialisierte Hardware für KI-Berechnungen – GPUs (Graphics Processing Units) und TPUs (Tensor Processing Units) ermöglichen das Training und die Ausführung moderner KI-Modelle.

Grundlagen Grundlagen

Gradient Clipping

Gradient Clipping

Eine Technik zur Stabilisierung des Trainings, die zu große Gradienten begrenzt – verhindert das Exploding Gradient Problem in tiefen Netzen und RNNs.

Grundlagen

Gradient Descent

Gradient Descent

Der fundamentale Optimierungsalgorithmus im Machine Learning, der die Parameter eines Modells schrittweise anpasst, um den Fehler zu minimieren.

Grundlagen

Grundlagen

Grundlagen

Ein Teilbereich des Machine Learning, der tiefe künstliche neuronale Netze mit vielen Schichten nutzt, um komplexe Muster in großen Datenmengen zu erkennen.

UX Grundlagen

Guardrail UX

Guardrail UX / Safety UX

UX-Patterns, die Nutzer vor KI-Fehlern schützen und sichere Grenzen setzen – von Bestätigungsdialogen bis zu Undo-Funktionen.

LLM Grundlagen

Halluzinationen

Hallucinations

Das Phänomen, bei dem KI-Sprachmodelle plausibel klingende, aber faktisch falsche oder erfundene Informationen generieren.

UX Grundlagen

Human-Centered AI

Human-Centered AI / Human-Centric AI

Ein Design-Ansatz, der den Menschen in den Mittelpunkt der KI-Entwicklung stellt – Bedürfnisse, Fähigkeiten und Grenzen der Nutzer berücksichtigen.

Grundlagen

Hyperparameter

Hyperparameters

Einstellungen, die vor dem Training eines KI-Modells manuell festgelegt werden und den Trainingsprozess steuern – im Gegensatz zu Parametern, die automatisch gelernt werden.

Daten Grundlagen

Imbalanced Data

Imbalanced Data / Class Imbalance

Ein häufiges Problem in ML, wenn Klassen im Datensatz sehr ungleich verteilt sind – z.B. 99% normale Transaktionen, 1% Betrug. Erfordert spezielle Techniken.

Grundlagen

Inferenz

Inference

Die Anwendung eines trainierten KI-Modells auf neue Daten, um Vorhersagen oder Ausgaben zu generieren – der produktive Einsatz nach dem Training.

LLM Grundlagen

Instruction Tuning

Instruction Tuning / Instruction Fine-Tuning

Eine Fine-Tuning-Methode, bei der LLMs lernen, natürlichsprachliche Anweisungen zu befolgen – der Schlüssel zu hilfreichen, interaktiven KI-Assistenten.

Mathematik Grundlagen

KL-Divergenz

Kullback-Leibler Divergence / KL Divergence

Ein Maß für den Unterschied zwischen zwei Wahrscheinlichkeitsverteilungen – zentral für VAEs, Distillation und Information Theory.

Architektur Grundlagen

Knowledge Distillation

Knowledge Distillation

Eine Technik, bei der ein kleines 'Student'-Modell lernt, das Verhalten eines großen 'Teacher'-Modells zu imitieren – für effizientere Modelle mit ähnlicher Qualität.

Daten Grundlagen

Knowledge Graph

Knowledge Graph

Eine strukturierte Wissensdatenbank, die Entitäten (Personen, Orte, Konzepte) und deren Beziehungen als Netzwerk aus Knoten und Kanten darstellt.

LLM Grundlagen

Kontextfenster

Context Window

Die maximale Menge an Text (gemessen in Tokens), die ein Sprachmodell gleichzeitig verarbeiten kann – bestehend aus Eingabe und Ausgabe zusammen.

Grundlagen

Künstliche Intelligenz (KI)

Artificial Intelligence (AI)

Der Oberbegriff für Computersysteme, die menschenähnliche kognitive Fähigkeiten wie Lernen, Problemlösung und Entscheidungsfindung nachbilden.

Daten Grundlagen

Labeling

Labeling / Data Labeling

Das Zuweisen von Kategorien oder Tags zu Datenpunkten – der spezifische Akt des Beschriftens, der Datenannotation erst ermöglicht.

LLM Grundlagen

Large Language Model (LLM)

Large Language Model

Ein KI-Modell, das auf riesigen Textmengen trainiert wurde und menschenähnliche Sprache verstehen und generieren kann.

Grundlagen Architektur

Latent Space

Latent Space

Ein komprimierter, gelernter Repräsentationsraum, in dem ein Modell die wesentlichen Merkmale von Daten kodiert – die 'innere Vorstellung' eines neuronalen Netzes.

Mathematik Grundlagen

Likelihood

Likelihood

Die Wahrscheinlichkeit der beobachteten Daten unter einem bestimmten Modell – zentral für Maximum Likelihood Estimation und Bayesian Inference.

LLM Grundlagen

Logits

Logits

Die rohen, unnormalisierten Ausgabewerte eines neuronalen Netzes, bevor sie durch Softmax in Wahrscheinlichkeiten umgewandelt werden.

Grundlagen

Loss Function

Loss Function

Eine mathematische Funktion, die misst, wie weit die Vorhersage eines Modells von der tatsächlichen Antwort entfernt ist – das zentrale Optimierungsziel beim Training.

Architektur Grundlagen

LSTM (Long Short-Term Memory)

Long Short-Term Memory

Eine erweiterte RNN-Architektur mit speziellen Gate-Mechanismen, die Langzeitabhängigkeiten in Sequenzen besser erfassen kann als einfache RNNs.

Grundlagen

Machine Learning (ML)

Grundlagen

Ein Teilbereich der KI, bei dem Algorithmen aus Daten lernen und Vorhersagen treffen, ohne explizit programmiert zu werden.

Grundlagen Grundlagen

Model Collapse

Model Collapse

Ein Phänomen, bei dem KI-Modelle degenerieren, wenn sie auf synthetischen Daten trainiert werden, die von anderen KI-Modellen generiert wurden.

Sicherheit Grundlagen

Model Poisoning

Model Poisoning / Data Poisoning

Ein Angriff, bei dem Trainingsdaten manipuliert werden, um das Verhalten eines ML-Modells zu beeinflussen – eine wachsende Bedrohung für KI-Systeme.

Grundlagen

Modell

Model

Eine mathematische Repräsentation, die aus Daten gelernte Muster enthält und Vorhersagen oder Entscheidungen für neue Eingaben treffen kann.

LLM Grundlagen

Multimodalität

Multimodality

Die Fähigkeit eines KI-Modells, verschiedene Datentypen wie Text, Bilder, Audio und Video gleichzeitig zu verstehen und zu verarbeiten.

Grundlagen Architektur

Neural Network Layers

Neural Network Layers

Die Bausteine neuronaler Netze – Input Layer empfängt Daten, Hidden Layers verarbeiten sie, Output Layer liefert das Ergebnis. Mehr Layers = tieferes Netz = Deep Learning.

Grundlagen

Neuronales Netz

Neural Network

Ein von biologischen Gehirnen inspiriertes Rechenmodell, das aus vernetzten künstlichen Neuronen besteht und Muster in Daten erkennen kann.

Daten Grundlagen

Normalization vs. Standardization

Normalization vs. Standardization

Zwei Feature-Scaling-Methoden im Vergleich – Normalization skaliert auf [0,1], Standardization auf Mittelwert 0 und Standardabweichung 1.

Daten Grundlagen

Ontologie

Ontology

Eine formale Beschreibung von Konzepten, deren Eigenschaften und Beziehungen innerhalb einer Wissensdomäne – die Grundlage für strukturiertes Wissensmanagement in KI-Systemen.

Grundlagen

Overfitting / Underfitting

Overfitting / Underfitting

Zwei fundamentale Probleme beim Machine Learning: Overfitting bedeutet, das Modell lernt Trainingsdaten auswendig; Underfitting bedeutet, es lernt zu wenig.

Grundlagen

Parameter

Parameters

Die internen Zahlenwerte eines KI-Modells, die während des Trainings gelernt werden und das 'Wissen' des Modells repräsentieren.

Grundlagen LLM

Perplexity

Perplexity

Eine Metrik die misst, wie 'überrascht' ein Sprachmodell von einem Text ist – niedrigere Perplexity bedeutet besseres Sprachverständnis.

Grundlagen Grundlagen

Policy Model

Policy Model / Policy Network

Das Sprachmodell, das bei RLHF optimiert wird – lernt durch Feedback vom Reward Model, bessere Antworten zu generieren.

Architektur Grundlagen

Positional Encoding

Positional Encoding / Positional Embedding

Eine Technik, die Transformern die Position von Tokens in einer Sequenz mitteilt – notwendig, weil Attention allein keine Reihenfolge kennt.

Grundlagen Grundlagen

PPO (Proximal Policy Optimization)

Proximal Policy Optimization

Ein Reinforcement-Learning-Algorithmus, der bei RLHF zum Einsatz kommt – trainiert LLMs basierend auf menschlichem Feedback, stabil und effizient.

Grundlagen LLM

Pre-Training

Pre-Training

Die erste und aufwändigste Trainingsphase eines Foundation Models, in der es auf riesigen Datenmengen grundlegende Sprachverständnis- und Reasoning-Fähigkeiten erlernt – bevor Fine-Tuning oder RLHF folgen.

Grundlagen Daten

Precision, Recall & F1-Score

Precision, Recall & F1-Score

Die drei wichtigsten Metriken zur Bewertung von Klassifikationsmodellen – Precision misst Genauigkeit, Recall misst Vollständigkeit, F1 kombiniert beide.

Mathematik Grundlagen

Prior und Posterior

Prior / Posterior Distribution

Die zwei Seiten des Bayesian Learning – Prior ist das Vorwissen vor den Daten, Posterior ist die aktualisierte Überzeugung nach den Daten.

DevOps Grundlagen

Quantisierung

Quantization

Eine Optimierungstechnik, die die Präzision der Gewichte eines KI-Modells reduziert (z.B. von 32-Bit auf 4-Bit), um Speicherbedarf und Rechenaufwand drastisch zu senken.

Grundlagen LLM

Reflection Prompting

Reflection Prompting / Self-Reflection

Eine Prompting-Technik, bei der LLMs ihre eigenen Antworten überprüfen und verbessern – für höhere Qualität durch Selbstreflexion.

Grundlagen

Regularisierung

Regularization

Techniken, die verhindern, dass ein KI-Modell Trainingsdaten auswendig lernt (Overfitting), indem sie die Modellkomplexität einschränken.

Grundlagen

Reinforcement Learning

Reinforcement Learning

Eine Machine-Learning-Methode, bei der ein Agent durch Versuch und Irrtum lernt, indem er für gute Aktionen belohnt und für schlechte bestraft wird.

Grundlagen Grundlagen

ReLU und GELU

Rectified Linear Unit / Gaussian Error Linear Unit

Die wichtigsten Aktivierungsfunktionen für neuronale Netze – ReLU für Effizienz, GELU für Transformer und moderne Architekturen.

DevOps Grundlagen

Reproducibility

Reproducibility

Die Fähigkeit, ML-Experimente und Modelle exakt zu reproduzieren – gleiche Daten, gleicher Code, gleiche Ergebnisse. Grundprinzip für wissenschaftliche und produktive ML-Arbeit.

Sicherheit Grundlagen

Responsible AI

Responsible AI

Ein übergreifendes Framework für die ethische, faire und transparente Entwicklung und Nutzung von KI-Systemen – von Bias-Erkennung bis Umweltauswirkungen.

LLM Grundlagen

Reward Model

Reward Model

Ein Modell, das menschliche Präferenzen gelernt hat und vorhersagen kann, welche Ausgabe ein Mensch bevorzugen würde – zentrale Komponente von RLHF.

LLM Grundlagen

RLHF (Reinforcement Learning from Human Feedback)

Reinforcement Learning from Human Feedback

Eine Trainingsmethode, bei der ein KI-Modell durch menschliches Feedback lernt, hilfreiche, harmlose und ehrliche Antworten zu generieren.

Architektur Grundlagen

RNN (Recurrent Neural Network)

Recurrent Neural Network

Eine neuronale Netzwerk-Architektur mit internem Gedächtnis, die sequenzielle Daten wie Text oder Zeitreihen verarbeiten kann – weitgehend durch Transformer ersetzt.

Sicherheit Grundlagen

Robustheit

Robustness

Die Fähigkeit eines KI-Modells, auch bei unerwarteten, verrauschten oder manipulierten Eingaben korrekte und verlässliche Ergebnisse zu liefern – ein Schlüsselfaktor für produktionsreife KI.

Mathematik Grundlagen

ROC Curve

Receiver Operating Characteristic Curve

Ein Diagramm zur Bewertung von Klassifikatoren – zeigt das Verhältnis von True Positive Rate zu False Positive Rate bei verschiedenen Schwellenwerten.

Grundlagen Grundlagen

RoPE (Rotary Position Embedding)

Rotary Position Embedding (RoPE)

Eine Methode zur Positionskodierung in Transformern, die relative Positionen durch Rotation im Embedding-Raum kodiert – Standard in modernen LLMs.

LLM Grundlagen

Scaling Laws

Scaling Laws

Empirische Gesetzmäßigkeiten, die beschreiben, wie die Leistung von LLMs mit Modellgröße, Datenmenge und Rechenleistung skaliert – Grundlage für Trainings-Entscheidungen.

Grundlagen LLM

Self-Consistency

Self-Consistency Prompting

Eine Prompting-Technik, bei der mehrere Antworten generiert und die häufigste als Ergebnis gewählt wird – für zuverlässigere Reasoning-Ergebnisse.

Grundlagen LLM

Self-Supervised Learning

Self-Supervised Learning

Eine Lernmethode, bei der das Modell sich selbst Trainingsaufgaben aus ungelabelten Daten erstellt – die Grundlage für das Pre-Training moderner LLMs.

Grundlagen Grundlagen

SFT (Supervised Fine-Tuning)

Supervised Fine-Tuning (SFT)

Der erste Schritt nach dem Pre-Training, bei dem LLMs auf Instruktions-Daten trainiert werden – macht aus einem Text-Vervollständiger einen hilfreichen Assistenten.

Grundlagen Grundlagen

Sigmoid

Sigmoid Function / Logistic Function

Eine Aktivierungsfunktion, die jeden Wert auf den Bereich 0-1 abbildet – klassisch für binäre Klassifikation und Wahrscheinlichkeiten.

Daten Grundlagen

SMOTE

Synthetic Minority Over-sampling Technique

Eine Technik zur Erzeugung synthetischer Datenpunkte für unterrepräsentierte Klassen – löst das Problem unbalancierter Datensätze im ML.

Grundlagen Architektur

Softmax

Softmax Function

Eine mathematische Funktion, die einen Vektor von Zahlen in eine Wahrscheinlichkeitsverteilung umwandelt – zentral für Klassifikation und Attention in neuronalen Netzen.

Grundlagen Grundlagen

Sparse Attention

Sparse Attention

Eine Optimierungstechnik für Transformer, die nur auf ausgewählte Tokens achtet statt auf alle – ermöglicht längere Kontextfenster bei weniger Rechenaufwand.

Grundlagen LLM

Speech-to-Text

Speech-to-Text (STT) / Automatic Speech Recognition (ASR)

KI-Technologie zur automatischen Transkription von gesprochener Sprache in geschriebenen Text – von Diktaten bis Echtzeit-Untertitelung.

Grundlagen

Supervised Learning

Supervised Learning

Eine Machine-Learning-Methode, bei der ein Modell aus gelabelten Beispieldaten lernt – also aus Eingaben mit bekannter korrekter Ausgabe.

Grundlagen LLM

Text-to-Speech

Text-to-Speech (TTS) / Speech Synthesis

KI-Technologie zur Umwandlung von geschriebenem Text in natürlich klingende Sprache – von Voiceover bis Echtzeit-Assistenten.

Grundlagen LLM

Text-to-Video

Text-to-Video (T2V)

KI-Modelle, die aus Textbeschreibungen Videos generieren – von kurzen Clips bis hin zu komplexen Szenen mit konsistenten Charakteren und Bewegungen.

Daten Grundlagen

Time Series

Time Series Data

Daten, die über die Zeit geordnet sind – von Aktienkursen bis Sensordaten. Erfordert spezielle Methoden für Analyse und Vorhersage.

Grundlagen Grundlagen

Token Sampling

Token Sampling / Decoding Strategies

Die verschiedenen Strategien, mit denen LLMs das nächste Token auswählen – von deterministisch (Greedy) bis kreativ (Temperature, Top-K, Top-P).

LLM Grundlagen

Tokenisierung

Tokenization

Der Prozess, bei dem Text in kleinere Einheiten (Tokens) zerlegt wird, bevor ein Sprachmodell ihn verarbeiten kann – der erste und entscheidende Schritt jeder NLP-Pipeline.

Grundlagen LLM

Tokenizer (BPE / SentencePiece)

Tokenizer (BPE / SentencePiece)

Algorithmen die Text in Tokens zerlegen – BPE (Byte Pair Encoding) und SentencePiece sind die Standards hinter GPT, LLaMA und den meisten modernen LLMs.

Grundlagen LLM

Tokens

Tokens

Die kleinsten Texteinheiten, in die ein Sprachmodell Text zerlegt – Wörter, Wortteile oder einzelne Zeichen, die das Modell verarbeiten kann.

Grundlagen Grundlagen

Toolformer

Toolformer

Ein Forschungsansatz, bei dem Sprachmodelle selbst lernen, wann und wie sie externe Tools aufrufen – ohne explizites Training auf Tool-Nutzung.

Grundlagen Daten

Trainingsdaten

Training Data

Die Datensätze, mit denen KI-Modelle trainiert werden – sie bestimmen maßgeblich, was ein Modell lernt, wie gut es funktioniert und welche Verzerrungen es aufweist.

Grundlagen Praxis

Transfer Learning

Transfer Learning

Eine Technik, bei der ein auf großen Datenmengen vortrainiertes Modell für eine neue, spezifische Aufgabe angepasst wird – spart enorm Zeit, Daten und Rechenleistung.

Grundlagen LLM

Tree of Thoughts

Tree of Thoughts (ToT)

Eine Prompting-Technik, bei der LLMs mehrere Lösungspfade parallel explorieren und bewerten – für komplexe Probleme, die schrittweises Denken erfordern.

UX Grundlagen

Trust Calibration

Trust Calibration

Die Abstimmung zwischen dem Vertrauen der Nutzer und der tatsächlichen Zuverlässigkeit eines KI-Systems – weder Über- noch Untervertrauen.

Grundlagen

Unsupervised Learning

Unsupervised Learning

Eine Machine-Learning-Methode, bei der ein Modell eigenständig Muster und Strukturen in ungelabelten Daten erkennt – ohne vorgegebene richtige Antworten.

Architektur Grundlagen

VAE (Variational Autoencoder)

Variational Autoencoder

Eine generative Modellarchitektur, die Daten in einen latenten Raum komprimiert und daraus neue, ähnliche Daten generieren kann – Grundlage für viele generative KI-Systeme.

Sicherheit Grundlagen

Verschlüsselung

Encryption

Die Umwandlung von lesbaren Daten in einen unlesbaren Code, der nur mit dem richtigen Schlüssel wieder entschlüsselt werden kann – Grundlage jeder digitalen Sicherheit.

Grundlagen Daten

Word2Vec / GloVe

Word2Vec / GloVe

Pionier-Verfahren, die Wörter als Vektoren darstellen – Word2Vec (Google, 2013) und GloVe (Stanford, 2014) legten den Grundstein für moderne Embeddings.

LLM Grundlagen

Zero-Shot Learning

Zero-Shot Learning

Die Fähigkeit eines Modells, Aufgaben zu lösen, für die es keine spezifischen Trainingsbeispiele gesehen hat – eine Schlüsseleigenschaft moderner Foundation Models und LLMs.