Adversarial Attacks
Adversarial Attacks
Gezielte Manipulationen von Eingabedaten, die KI-Modelle zu falschen Vorhersagen verleiten – oft für Menschen unsichtbar, aber für das Modell verheerend.
Die Grundlagen der Künstlichen Intelligenz bilden das Fundament für alles Weitere. Hier findest du Begriffe rund um Machine Learning, neuronale Netze, Trainingsverfahren und die mathematischen Konzepte dahinter – verständlich erklärt, ohne unnötigen Fachjargon.
Adversarial Attacks
Gezielte Manipulationen von Eingabedaten, die KI-Modelle zu falschen Vorhersagen verleiten – oft für Menschen unsichtbar, aber für das Modell verheerend.
Agent Memory
Mechanismen, die KI-Agenten ermöglichen, Informationen über Konversationen und Sitzungen hinweg zu speichern und abzurufen – für kontextbewusstes Handeln.
EU AI Act
Die weltweit erste umfassende KI-Regulierung – das EU-Gesetz klassifiziert KI-Systeme nach Risiko und stellt Anforderungen an Transparenz, Sicherheit und menschliche Aufsicht.
AI Readiness
Der Grad der Bereitschaft eines Unternehmens, KI erfolgreich einzusetzen – umfasst Daten, Technologie, Prozesse, Kultur und Kompetenzen.
Activation Function
Mathematische Funktionen in neuronalen Netzen, die Nicht-Linearität einführen – ohne sie könnte ein Netz nur lineare Zusammenhänge lernen, egal wie viele Layers es hat.
Algorithm
Eine eindeutige, schrittweise Anleitung zur Lösung eines Problems oder zur Durchführung einer Berechnung – das Grundprinzip hinter jeder Software und KI.
Alignment Tax
Der Performance-Verlust, der entsteht, wenn KI-Modelle auf Sicherheit und Alignment trainiert werden – der Trade-off zwischen Fähigkeit und Sicherheit.
Attention Mechanism
Der Kernmechanismus moderner KI-Modelle – ermöglicht es einem Modell, sich auf die relevantesten Teile der Eingabe zu konzentrieren, statt alles gleich zu gewichten.
Area Under the ROC Curve (AUC-ROC)
Die Fläche unter der ROC-Kurve – ein einzelner Wert zwischen 0 und 1, der die Gesamtqualität eines Klassifikators misst.
Automation vs. Augmentation
Zwei grundlegende Strategien für den KI-Einsatz: Automation ersetzt menschliche Arbeit vollständig, Augmentation unterstützt und verstärkt menschliche Fähigkeiten.
AutoML
Automatisiertes Machine Learning – Tools und Techniken die den ML-Workflow automatisieren: von Feature Engineering über Modellauswahl bis Hyperparameter-Tuning.
Autoregressive Model
Ein Modelltyp, der Sequenzen Token für Token generiert – jedes neue Token basiert auf allen vorherigen. Das Grundprinzip hinter GPT und anderen LLMs.
Backpropagation
Der Algorithmus, der berechnet, wie stark jedes Gewicht in einem neuronalen Netz zum Gesamtfehler beiträgt – die Grundlage für das Training tiefer Netze.
Batch Normalization
Eine Technik, die die Eingaben jeder Schicht normalisiert – stabilisiert das Training, ermöglicht höhere Lernraten und beschleunigt die Konvergenz deutlich.
Bayes' Theorem / Bayes' Rule
Die mathematische Grundlage für probabilistisches Denken – wie wir Überzeugungen basierend auf neuen Beweisen aktualisieren. Fundament für ML und Statistik.
Benchmark
Standardisierte Tests und Datensätze, mit denen KI-Modelle objektiv verglichen werden – von MMLU für Allgemeinwissen bis HumanEval für Code-Fähigkeiten.
Bias
Systematische Verzerrungen in KI-Systemen, die zu unfairen oder diskriminierenden Ergebnissen führen – verursacht durch einseitige Trainingsdaten, Algorithmen oder Designentscheidungen.
Bias-Variance Tradeoff
Das fundamentale Dilemma im Machine Learning – einfache Modelle (hoher Bias) vs. komplexe Modelle (hohe Varianz). Die Kunst liegt in der Balance.
BLEU / ROUGE
Automatische Metriken zur Bewertung von generiertem Text – BLEU für Übersetzungen (Precision-basiert), ROUGE für Zusammenfassungen (Recall-basiert).
Catastrophic Forgetting / Catastrophic Interference
Ein Phänomen, bei dem neuronale Netze beim Lernen neuer Aufgaben das Wissen über frühere Aufgaben verlieren – ein zentrales Problem für kontinuierliches Lernen.
Chat Roles / Message Roles
Die drei Rollen in Chat-APIs – System für Anweisungen, User für Nutzereingaben, Assistant für Modellantworten. Grundlage für strukturierte LLM-Kommunikation.
ChatGPT / GPT
Eine Familie von Large Language Models von OpenAI – GPT steht für 'Generative Pre-trained Transformer'. ChatGPT ist die Chat-optimierte Version, die KI für Millionen Menschen zugänglich gemacht hat.
Claude
Claude ist die KI-Modell-Familie von Anthropic – entwickelt mit besonderem Fokus auf Sicherheit, Ehrlichkeit und hilfreiche Interaktion. Claude konkurriert direkt mit GPT-5 und Gemini 3.
Convolutional Neural Network
Eine neuronale Netzwerk-Architektur, die speziell für die Verarbeitung von Bildern und räumlichen Daten entwickelt wurde und lokale Muster durch Filter erkennt.
Confusion Matrix
Eine Tabelle, die zeigt wie oft ein Klassifikationsmodell richtig und falsch lag – aufgeschlüsselt nach True/False Positives und Negatives.
Constitutional AI (CAI)
Eine von Anthropic entwickelte Methode, KI-Modelle durch ein Set von Prinzipien (eine 'Verfassung') sicher und hilfreich zu machen – ohne ausschließlich auf menschliches Feedback angewiesen zu sein.
Context Compression
Techniken zur Komprimierung von Kontext-Informationen für LLMs – um mehr relevante Informationen in das begrenzte Kontextfenster zu packen.
Context Engineering
Die Kunst, den richtigen Kontext für LLM-Anfragen zusammenzustellen – welche Informationen, in welcher Reihenfolge, in welchem Format.
Continual Learning / Lifelong Learning
Ein Paradigma, bei dem ML-Modelle kontinuierlich aus neuen Daten lernen, ohne das zuvor Gelernte zu vergessen – eine der größten Herausforderungen in der KI.
ControlNet
Eine Technik zur Steuerung von Diffusionsmodellen durch zusätzliche Eingaben wie Skizzen, Posen oder Tiefenkarten – für kontrollierbare Bildgenerierung.
Conversational UX / Conversational Design
UX-Design für dialogbasierte Interfaces wie Chatbots und Sprachassistenten – natürliche Konversation statt klassischer UI-Elemente.
Cosine Similarity
Ein Ähnlichkeitsmaß, das den Winkel zwischen zwei Vektoren misst – der Standard für den Vergleich von Embeddings in der semantischen Suche und RAG-Systemen.
Cross-Entropy Loss
Eine Loss Function, die misst, wie gut eine vorhergesagte Wahrscheinlichkeitsverteilung mit der tatsächlichen Verteilung übereinstimmt – Standard für Klassifikation und LLMs.
Curriculum Learning
Eine Trainingsstrategie, bei der Modelle zuerst mit einfachen Beispielen trainiert werden und die Schwierigkeit schrittweise erhöht wird – wie in der Schule.
Data Augmentation
Techniken zur künstlichen Vergrößerung von Trainingsdatensätzen durch Transformationen – Rotation, Spiegelung, Rauschen oder semantische Variationen.
Dataset
Eine strukturierte Sammlung von Daten, die für das Training, die Evaluation oder das Testen von KI-Modellen verwendet wird.
Data Privacy / GDPR
Der Schutz personenbezogener Daten bei der Entwicklung und dem Einsatz von KI-Systemen – mit besonderem Fokus auf die europäische Datenschutz-Grundverordnung.
Knowledge Distillation
Eine Technik, bei der ein kleines 'Schüler'-Modell trainiert wird, das Verhalten eines großen 'Lehrer'-Modells nachzuahmen – für effizientere Inferenz bei ähnlicher Qualität.
Direct Preference Optimization
Eine Trainingsmethode für LLMs, die menschliche Präferenzen direkt in das Modell einbettet – einfacher und stabiler als RLHF, ohne separates Reward Model.
DreamBooth
Eine Fine-Tuning-Technik für Diffusionsmodelle, die mit wenigen Bildern neue Konzepte lernt – für personalisierte Bildgenerierung von Personen, Objekten oder Stilen.
Data Drift / Model Drift / Concept Drift
Die schleichende Verschlechterung eines ML-Modells in Produktion, weil sich die Eingabedaten oder die Zusammenhänge zwischen Eingabe und Ausgabe über die Zeit verändern.
Dropout
Eine Regularisierungstechnik, die während des Trainings zufällig Neuronen deaktiviert – verhindert Overfitting und macht Modelle robuster.
Embedding Space
Der hochdimensionale mathematische Raum, in dem Embeddings leben – semantisch ähnliche Konzepte liegen nahe beieinander, verschiedene weit auseinander.
Entropy
Ein Maß für Unsicherheit oder Informationsgehalt einer Wahrscheinlichkeitsverteilung – fundamental für Informationstheorie, Entscheidungsbäume und Sprachmodelle.
Epoch / Batch / Iteration
Die drei Zeiteinheiten des Machine-Learning-Trainings: Eine Epoch ist ein kompletter Durchlauf aller Daten, ein Batch ist eine Teilmenge, und eine Iteration ist ein Trainingsschritt.
Error Recovery Patterns
UX-Patterns für den Umgang mit KI-Fehlern – von hilfreichen Fehlermeldungen bis zu Selbstkorrektur-Mechanismen.
Explainability / Explainable AI (XAI)
Die Fähigkeit, Entscheidungen und Vorhersagen von KI-Systemen für Menschen nachvollziehbar und verständlich zu machen.
Explainable AI (XAI)
Methoden und Techniken, die KI-Entscheidungen für Menschen nachvollziehbar machen – von SHAP-Werten bis zu Attention-Visualisierungen.
Explainable UI / XAI Interface
UI-Patterns, die KI-Entscheidungen für Nutzer nachvollziehbar machen – von Confidence Scores bis zu Feature-Attributionen.
Fairness
Das Prinzip, dass KI-Systeme alle Personen und Gruppen gleich und gerecht behandeln sollten – ohne systematische Bevorzugung oder Benachteiligung.
Fallback Strategy / Graceful Degradation
Strategien für den Umgang mit KI-Fehlern und Unsicherheit – was passiert, wenn das Modell nicht weiter weiß?
Feature Engineering
Der Prozess, aus Rohdaten aussagekräftige Merkmale (Features) zu extrahieren oder zu erstellen, die einem ML-Modell helfen, bessere Vorhersagen zu treffen.
Feature Scaling
Die Transformation von Features auf vergleichbare Wertebereiche – wichtig für viele ML-Algorithmen wie Gradient Descent, KNN und SVMs.
Few-Shot / Zero-Shot Learning
Die Fähigkeit von KI-Modellen, Aufgaben mit nur wenigen Beispielen (Few-Shot) oder ganz ohne Beispiele (Zero-Shot) zu lösen.
Foundation Model
Große, auf breiten Daten vortrainierte KI-Modelle, die als Grundlage für viele verschiedene Anwendungen dienen – durch Fine-Tuning oder Prompting anpassbar.
GPU / TPU
Spezialisierte Hardware für KI-Berechnungen – GPUs (Graphics Processing Units) und TPUs (Tensor Processing Units) ermöglichen das Training und die Ausführung moderner KI-Modelle.
Gradient Clipping
Eine Technik zur Stabilisierung des Trainings, die zu große Gradienten begrenzt – verhindert das Exploding Gradient Problem in tiefen Netzen und RNNs.
Gradient Descent
Der fundamentale Optimierungsalgorithmus im Machine Learning, der die Parameter eines Modells schrittweise anpasst, um den Fehler zu minimieren.
Grundlagen
Ein Teilbereich des Machine Learning, der tiefe künstliche neuronale Netze mit vielen Schichten nutzt, um komplexe Muster in großen Datenmengen zu erkennen.
Guardrail UX / Safety UX
UX-Patterns, die Nutzer vor KI-Fehlern schützen und sichere Grenzen setzen – von Bestätigungsdialogen bis zu Undo-Funktionen.
Hallucinations
Das Phänomen, bei dem KI-Sprachmodelle plausibel klingende, aber faktisch falsche oder erfundene Informationen generieren.
Human-Centered AI / Human-Centric AI
Ein Design-Ansatz, der den Menschen in den Mittelpunkt der KI-Entwicklung stellt – Bedürfnisse, Fähigkeiten und Grenzen der Nutzer berücksichtigen.
Hyperparameters
Einstellungen, die vor dem Training eines KI-Modells manuell festgelegt werden und den Trainingsprozess steuern – im Gegensatz zu Parametern, die automatisch gelernt werden.
Imbalanced Data / Class Imbalance
Ein häufiges Problem in ML, wenn Klassen im Datensatz sehr ungleich verteilt sind – z.B. 99% normale Transaktionen, 1% Betrug. Erfordert spezielle Techniken.
Inference
Die Anwendung eines trainierten KI-Modells auf neue Daten, um Vorhersagen oder Ausgaben zu generieren – der produktive Einsatz nach dem Training.
Instruction Tuning / Instruction Fine-Tuning
Eine Fine-Tuning-Methode, bei der LLMs lernen, natürlichsprachliche Anweisungen zu befolgen – der Schlüssel zu hilfreichen, interaktiven KI-Assistenten.
Kullback-Leibler Divergence / KL Divergence
Ein Maß für den Unterschied zwischen zwei Wahrscheinlichkeitsverteilungen – zentral für VAEs, Distillation und Information Theory.
Knowledge Distillation
Eine Technik, bei der ein kleines 'Student'-Modell lernt, das Verhalten eines großen 'Teacher'-Modells zu imitieren – für effizientere Modelle mit ähnlicher Qualität.
Knowledge Graph
Eine strukturierte Wissensdatenbank, die Entitäten (Personen, Orte, Konzepte) und deren Beziehungen als Netzwerk aus Knoten und Kanten darstellt.
Context Window
Die maximale Menge an Text (gemessen in Tokens), die ein Sprachmodell gleichzeitig verarbeiten kann – bestehend aus Eingabe und Ausgabe zusammen.
Artificial Intelligence (AI)
Der Oberbegriff für Computersysteme, die menschenähnliche kognitive Fähigkeiten wie Lernen, Problemlösung und Entscheidungsfindung nachbilden.
Labeling / Data Labeling
Das Zuweisen von Kategorien oder Tags zu Datenpunkten – der spezifische Akt des Beschriftens, der Datenannotation erst ermöglicht.
Large Language Model
Ein KI-Modell, das auf riesigen Textmengen trainiert wurde und menschenähnliche Sprache verstehen und generieren kann.
Latent Space
Ein komprimierter, gelernter Repräsentationsraum, in dem ein Modell die wesentlichen Merkmale von Daten kodiert – die 'innere Vorstellung' eines neuronalen Netzes.
Likelihood
Die Wahrscheinlichkeit der beobachteten Daten unter einem bestimmten Modell – zentral für Maximum Likelihood Estimation und Bayesian Inference.
Logits
Die rohen, unnormalisierten Ausgabewerte eines neuronalen Netzes, bevor sie durch Softmax in Wahrscheinlichkeiten umgewandelt werden.
Loss Function
Eine mathematische Funktion, die misst, wie weit die Vorhersage eines Modells von der tatsächlichen Antwort entfernt ist – das zentrale Optimierungsziel beim Training.
Long Short-Term Memory
Eine erweiterte RNN-Architektur mit speziellen Gate-Mechanismen, die Langzeitabhängigkeiten in Sequenzen besser erfassen kann als einfache RNNs.
Grundlagen
Ein Teilbereich der KI, bei dem Algorithmen aus Daten lernen und Vorhersagen treffen, ohne explizit programmiert zu werden.
Model Collapse
Ein Phänomen, bei dem KI-Modelle degenerieren, wenn sie auf synthetischen Daten trainiert werden, die von anderen KI-Modellen generiert wurden.
Model Poisoning / Data Poisoning
Ein Angriff, bei dem Trainingsdaten manipuliert werden, um das Verhalten eines ML-Modells zu beeinflussen – eine wachsende Bedrohung für KI-Systeme.
Model
Eine mathematische Repräsentation, die aus Daten gelernte Muster enthält und Vorhersagen oder Entscheidungen für neue Eingaben treffen kann.
Multimodality
Die Fähigkeit eines KI-Modells, verschiedene Datentypen wie Text, Bilder, Audio und Video gleichzeitig zu verstehen und zu verarbeiten.
Neural Network Layers
Die Bausteine neuronaler Netze – Input Layer empfängt Daten, Hidden Layers verarbeiten sie, Output Layer liefert das Ergebnis. Mehr Layers = tieferes Netz = Deep Learning.
Neural Network
Ein von biologischen Gehirnen inspiriertes Rechenmodell, das aus vernetzten künstlichen Neuronen besteht und Muster in Daten erkennen kann.
Normalization vs. Standardization
Zwei Feature-Scaling-Methoden im Vergleich – Normalization skaliert auf [0,1], Standardization auf Mittelwert 0 und Standardabweichung 1.
Ontology
Eine formale Beschreibung von Konzepten, deren Eigenschaften und Beziehungen innerhalb einer Wissensdomäne – die Grundlage für strukturiertes Wissensmanagement in KI-Systemen.
Overfitting / Underfitting
Zwei fundamentale Probleme beim Machine Learning: Overfitting bedeutet, das Modell lernt Trainingsdaten auswendig; Underfitting bedeutet, es lernt zu wenig.
Parameters
Die internen Zahlenwerte eines KI-Modells, die während des Trainings gelernt werden und das 'Wissen' des Modells repräsentieren.
Perplexity
Eine Metrik die misst, wie 'überrascht' ein Sprachmodell von einem Text ist – niedrigere Perplexity bedeutet besseres Sprachverständnis.
Policy Model / Policy Network
Das Sprachmodell, das bei RLHF optimiert wird – lernt durch Feedback vom Reward Model, bessere Antworten zu generieren.
Positional Encoding / Positional Embedding
Eine Technik, die Transformern die Position von Tokens in einer Sequenz mitteilt – notwendig, weil Attention allein keine Reihenfolge kennt.
Proximal Policy Optimization
Ein Reinforcement-Learning-Algorithmus, der bei RLHF zum Einsatz kommt – trainiert LLMs basierend auf menschlichem Feedback, stabil und effizient.
Pre-Training
Die erste und aufwändigste Trainingsphase eines Foundation Models, in der es auf riesigen Datenmengen grundlegende Sprachverständnis- und Reasoning-Fähigkeiten erlernt – bevor Fine-Tuning oder RLHF folgen.
Precision, Recall & F1-Score
Die drei wichtigsten Metriken zur Bewertung von Klassifikationsmodellen – Precision misst Genauigkeit, Recall misst Vollständigkeit, F1 kombiniert beide.
Prior / Posterior Distribution
Die zwei Seiten des Bayesian Learning – Prior ist das Vorwissen vor den Daten, Posterior ist die aktualisierte Überzeugung nach den Daten.
Quantization
Eine Optimierungstechnik, die die Präzision der Gewichte eines KI-Modells reduziert (z.B. von 32-Bit auf 4-Bit), um Speicherbedarf und Rechenaufwand drastisch zu senken.
Reflection Prompting / Self-Reflection
Eine Prompting-Technik, bei der LLMs ihre eigenen Antworten überprüfen und verbessern – für höhere Qualität durch Selbstreflexion.
Regularization
Techniken, die verhindern, dass ein KI-Modell Trainingsdaten auswendig lernt (Overfitting), indem sie die Modellkomplexität einschränken.
Reinforcement Learning
Eine Machine-Learning-Methode, bei der ein Agent durch Versuch und Irrtum lernt, indem er für gute Aktionen belohnt und für schlechte bestraft wird.
Rectified Linear Unit / Gaussian Error Linear Unit
Die wichtigsten Aktivierungsfunktionen für neuronale Netze – ReLU für Effizienz, GELU für Transformer und moderne Architekturen.
Reproducibility
Die Fähigkeit, ML-Experimente und Modelle exakt zu reproduzieren – gleiche Daten, gleicher Code, gleiche Ergebnisse. Grundprinzip für wissenschaftliche und produktive ML-Arbeit.
Responsible AI
Ein übergreifendes Framework für die ethische, faire und transparente Entwicklung und Nutzung von KI-Systemen – von Bias-Erkennung bis Umweltauswirkungen.
Reward Model
Ein Modell, das menschliche Präferenzen gelernt hat und vorhersagen kann, welche Ausgabe ein Mensch bevorzugen würde – zentrale Komponente von RLHF.
Reinforcement Learning from Human Feedback
Eine Trainingsmethode, bei der ein KI-Modell durch menschliches Feedback lernt, hilfreiche, harmlose und ehrliche Antworten zu generieren.
Recurrent Neural Network
Eine neuronale Netzwerk-Architektur mit internem Gedächtnis, die sequenzielle Daten wie Text oder Zeitreihen verarbeiten kann – weitgehend durch Transformer ersetzt.
Robustness
Die Fähigkeit eines KI-Modells, auch bei unerwarteten, verrauschten oder manipulierten Eingaben korrekte und verlässliche Ergebnisse zu liefern – ein Schlüsselfaktor für produktionsreife KI.
Receiver Operating Characteristic Curve
Ein Diagramm zur Bewertung von Klassifikatoren – zeigt das Verhältnis von True Positive Rate zu False Positive Rate bei verschiedenen Schwellenwerten.
Rotary Position Embedding (RoPE)
Eine Methode zur Positionskodierung in Transformern, die relative Positionen durch Rotation im Embedding-Raum kodiert – Standard in modernen LLMs.
Scaling Laws
Empirische Gesetzmäßigkeiten, die beschreiben, wie die Leistung von LLMs mit Modellgröße, Datenmenge und Rechenleistung skaliert – Grundlage für Trainings-Entscheidungen.
Self-Consistency Prompting
Eine Prompting-Technik, bei der mehrere Antworten generiert und die häufigste als Ergebnis gewählt wird – für zuverlässigere Reasoning-Ergebnisse.
Self-Supervised Learning
Eine Lernmethode, bei der das Modell sich selbst Trainingsaufgaben aus ungelabelten Daten erstellt – die Grundlage für das Pre-Training moderner LLMs.
Supervised Fine-Tuning (SFT)
Der erste Schritt nach dem Pre-Training, bei dem LLMs auf Instruktions-Daten trainiert werden – macht aus einem Text-Vervollständiger einen hilfreichen Assistenten.
Sigmoid Function / Logistic Function
Eine Aktivierungsfunktion, die jeden Wert auf den Bereich 0-1 abbildet – klassisch für binäre Klassifikation und Wahrscheinlichkeiten.
Synthetic Minority Over-sampling Technique
Eine Technik zur Erzeugung synthetischer Datenpunkte für unterrepräsentierte Klassen – löst das Problem unbalancierter Datensätze im ML.
Softmax Function
Eine mathematische Funktion, die einen Vektor von Zahlen in eine Wahrscheinlichkeitsverteilung umwandelt – zentral für Klassifikation und Attention in neuronalen Netzen.
Sparse Attention
Eine Optimierungstechnik für Transformer, die nur auf ausgewählte Tokens achtet statt auf alle – ermöglicht längere Kontextfenster bei weniger Rechenaufwand.
Speech-to-Text (STT) / Automatic Speech Recognition (ASR)
KI-Technologie zur automatischen Transkription von gesprochener Sprache in geschriebenen Text – von Diktaten bis Echtzeit-Untertitelung.
Supervised Learning
Eine Machine-Learning-Methode, bei der ein Modell aus gelabelten Beispieldaten lernt – also aus Eingaben mit bekannter korrekter Ausgabe.
Text-to-Speech (TTS) / Speech Synthesis
KI-Technologie zur Umwandlung von geschriebenem Text in natürlich klingende Sprache – von Voiceover bis Echtzeit-Assistenten.
Text-to-Video (T2V)
KI-Modelle, die aus Textbeschreibungen Videos generieren – von kurzen Clips bis hin zu komplexen Szenen mit konsistenten Charakteren und Bewegungen.
Time Series Data
Daten, die über die Zeit geordnet sind – von Aktienkursen bis Sensordaten. Erfordert spezielle Methoden für Analyse und Vorhersage.
Token Sampling / Decoding Strategies
Die verschiedenen Strategien, mit denen LLMs das nächste Token auswählen – von deterministisch (Greedy) bis kreativ (Temperature, Top-K, Top-P).
Tokenization
Der Prozess, bei dem Text in kleinere Einheiten (Tokens) zerlegt wird, bevor ein Sprachmodell ihn verarbeiten kann – der erste und entscheidende Schritt jeder NLP-Pipeline.
Tokenizer (BPE / SentencePiece)
Algorithmen die Text in Tokens zerlegen – BPE (Byte Pair Encoding) und SentencePiece sind die Standards hinter GPT, LLaMA und den meisten modernen LLMs.
Tokens
Die kleinsten Texteinheiten, in die ein Sprachmodell Text zerlegt – Wörter, Wortteile oder einzelne Zeichen, die das Modell verarbeiten kann.
Toolformer
Ein Forschungsansatz, bei dem Sprachmodelle selbst lernen, wann und wie sie externe Tools aufrufen – ohne explizites Training auf Tool-Nutzung.
Training Data
Die Datensätze, mit denen KI-Modelle trainiert werden – sie bestimmen maßgeblich, was ein Modell lernt, wie gut es funktioniert und welche Verzerrungen es aufweist.
Transfer Learning
Eine Technik, bei der ein auf großen Datenmengen vortrainiertes Modell für eine neue, spezifische Aufgabe angepasst wird – spart enorm Zeit, Daten und Rechenleistung.
Tree of Thoughts (ToT)
Eine Prompting-Technik, bei der LLMs mehrere Lösungspfade parallel explorieren und bewerten – für komplexe Probleme, die schrittweises Denken erfordern.
Trust Calibration
Die Abstimmung zwischen dem Vertrauen der Nutzer und der tatsächlichen Zuverlässigkeit eines KI-Systems – weder Über- noch Untervertrauen.
Unsupervised Learning
Eine Machine-Learning-Methode, bei der ein Modell eigenständig Muster und Strukturen in ungelabelten Daten erkennt – ohne vorgegebene richtige Antworten.
Variational Autoencoder
Eine generative Modellarchitektur, die Daten in einen latenten Raum komprimiert und daraus neue, ähnliche Daten generieren kann – Grundlage für viele generative KI-Systeme.
Encryption
Die Umwandlung von lesbaren Daten in einen unlesbaren Code, der nur mit dem richtigen Schlüssel wieder entschlüsselt werden kann – Grundlage jeder digitalen Sicherheit.
Word2Vec / GloVe
Pionier-Verfahren, die Wörter als Vektoren darstellen – Word2Vec (Google, 2013) und GloVe (Stanford, 2014) legten den Grundstein für moderne Embeddings.
Zero-Shot Learning
Die Fähigkeit eines Modells, Aufgaben zu lösen, für die es keine spezifischen Trainingsbeispiele gesehen hat – eine Schlüsseleigenschaft moderner Foundation Models und LLMs.