<EbeneX/>
Grundlagen Sicherheit · Updated 3. März 2026

Explainable AI (XAI)

Definition

Methoden und Techniken, die KI-Entscheidungen für Menschen nachvollziehbar machen – von SHAP-Werten bis zu Attention-Visualisierungen.

Fortgeschritten 2 Min. Lesezeit EN: Explainable AI (XAI)

Einfach erklärt

Explainable AI (XAI) ist die Antwort auf ein fundamentales Problem moderner KI: Die leistungsfähigsten Modelle sind Black Boxes. Ein Deep Neural Network mit Milliarden Parametern kann hervorragende Vorhersagen treffen – aber niemand weiß genau, warum. XAI-Methoden versuchen, diese Black Box zu öffnen.

Das ist nicht nur akademisch interessant. Wenn eine KI entscheidet, ob jemand einen Kredit bekommt, eine Stelle erhält oder medizinisch behandelt wird, haben Betroffene ein Recht auf Erklärung. Der EU AI Act macht das für Hochrisiko-Systeme zur Pflicht. XAI ist damit sowohl ein technisches als auch ein rechtliches und ethisches Thema.

Der Erklärbarkeits-Genauigkeits-Trade-off:

  • Einfache Modelle (Entscheidungsbaum): Leicht erklärbar, aber oft weniger genau
  • Komplexe Modelle (Deep Learning): Sehr genau, aber schwer erklärbar
  • XAI-Methoden: Versuchen, komplexe Modelle nachträglich erklärbar zu machen
  • Wichtig: Post-hoc-Erklärungen approximieren das Modell – sie sind nicht perfekt

Technischer Deep Dive

SHAP (SHapley Additive exPlanations)

SHAP basiert auf der Spieltheorie: Wie viel hat jedes Feature zur Vorhersage beigetragen?

import shap
import xgboost

model = xgboost.train(params, dtrain)
explainer = shap.TreeExplainer(model)
shap_values = explainer.shap_values(X_test)

# Visualisierung
shap.summary_plot(shap_values, X_test)
# → Zeigt: Feature "Alter" hat +0.3 zur Vorhersage beigetragen
#           Feature "Schulden" hat -0.5 beigetragen

LIME (Local Interpretable Model-agnostic Explanations)

LIME erklärt einzelne Vorhersagen durch ein lokales, einfaches Modell:

  1. Nehme einen Datenpunkt, den du erklären willst
  2. Erstelle leicht veränderte Versionen davon
  3. Frage das Black-Box-Modell für alle Versionen
  4. Trainiere ein einfaches Modell (lineare Regression) auf diesen Daten
  5. Das einfache Modell erklärt die lokale Entscheidung

XAI-Methoden im Überblick

MethodeTypFür wasModell-agnostisch
SHAPPost-hocFeature-WichtigkeitJa (mit Approximation)
LIMEPost-hocEinzelne VorhersagenJa
AttentionIntrinsischTransformer-ModelleNein
Grad-CAMPost-hocCNN-BildklassifikationNein
EntscheidungsbaumIntrinsischRegelbasierte EntscheidungenNein

XAI ist wie ein Richter, der nicht nur ein Urteil spricht, sondern auch die Begründung liefert: Nicht 'Kredit abgelehnt', sondern 'Kredit abgelehnt, weil Schuldenquote zu hoch (60% Einfluss) und kurze Kredithistorie (30% Einfluss)'.

SHAP und LIME erklären einzelne Vorhersagen durch Feature-Wichtigkeiten

EU AI Act fordert Erklärbarkeit für Hochrisiko-KI-Systeme

Trade-off zwischen Modellkomplexität und Erklärbarkeit

Kreditentscheidungen

Erklärung, warum ein Kredit genehmigt oder abgelehnt wurde

Medizinische Diagnose

Welche Bildmerkmale haben zur Diagnose beigetragen?

Compliance & Audit

Nachweisbare Entscheidungsgrundlagen für Regulatoren

Modell-Debugging

Verstehen, warum ein Modell systematisch falsch liegt

Was ist der Unterschied zwischen Explainability und Interpretability?

Interpretability bedeutet, dass das Modell selbst verständlich ist (z.B. ein Entscheidungsbaum). Explainability bedeutet, dass ein komplexes Modell nachträglich erklärt wird (z.B. SHAP für ein Neural Network). Interpretable Models sind immer erklärbar, aber nicht umgekehrt.

Sind SHAP-Erklärungen immer korrekt?

SHAP-Werte sind mathematisch fundiert (basieren auf Spieltheorie), aber sie erklären das Modell, nicht die Realität. Ein Modell kann SHAP-Erklärungen liefern, die plausibel klingen, aber auf einem verzerrten Datensatz basieren.

Welche Modelle sind intrinsisch erklärbar?

Lineare Regression, Logistische Regression, Entscheidungsbäume und regelbasierte Systeme sind intrinsisch erklärbar. Neural Networks, Gradient Boosting und Ensemble-Methoden brauchen post-hoc Erklärungsmethoden wie SHAP.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.