Adversarial Attacks
Adversarial Attacks
Gezielte Manipulationen von Eingabedaten, die KI-Modelle zu falschen Vorhersagen verleiten – oft für Menschen unsichtbar, aber für das Modell verheerend.
KI-Systeme bringen neue Risiken mit sich. Bias in Trainingsdaten, Halluzinationen, Prompt Injection und Datenschutzverletzungen sind reale Probleme. Diese Kategorie erklärt Sicherheitskonzepte, ethische Leitlinien und regulatorische Anforderungen wie den EU AI Act.
Adversarial Attacks
Gezielte Manipulationen von Eingabedaten, die KI-Modelle zu falschen Vorhersagen verleiten – oft für Menschen unsichtbar, aber für das Modell verheerend.
EU AI Act
Die weltweit erste umfassende KI-Regulierung – das EU-Gesetz klassifiziert KI-Systeme nach Risiko und stellt Anforderungen an Transparenz, Sicherheit und menschliche Aufsicht.
Anonymization / Pseudonymization
Techniken zum Schutz personenbezogener Daten: Anonymisierung entfernt den Personenbezug unwiderruflich, Pseudonymisierung ersetzt ihn durch Kennzeichen.
Audit Logging / Audit Trail
Die systematische Protokollierung sicherheitsrelevanter Ereignisse – wer hat wann was getan. Grundlage für Compliance und Incident Response.
Bias
Systematische Verzerrungen in KI-Systemen, die zu unfairen oder diskriminierenden Ergebnissen führen – verursacht durch einseitige Trainingsdaten, Algorithmen oder Designentscheidungen.
Constitutional AI (CAI)
Eine von Anthropic entwickelte Methode, KI-Modelle durch ein Set von Prinzipien (eine 'Verfassung') sicher und hilfreich zu machen – ohne ausschließlich auf menschliches Feedback angewiesen zu sein.
Data Residency / Data Localization
Die Anforderung, dass Daten in bestimmten geografischen Regionen gespeichert werden müssen – relevant für DSGVO, Compliance und Datensouveränität.
Data Privacy / GDPR
Der Schutz personenbezogener Daten bei der Entwicklung und dem Einsatz von KI-Systemen – mit besonderem Fokus auf die europäische Datenschutz-Grundverordnung.
Differential Privacy
Ein mathematisches Framework, das garantiert, dass die Analyse eines Datensatzes keine Rückschlüsse auf einzelne Personen zulässt – durch kontrolliertes Hinzufügen von Rauschen.
Explainability / Explainable AI (XAI)
Die Fähigkeit, Entscheidungen und Vorhersagen von KI-Systemen für Menschen nachvollziehbar und verständlich zu machen.
Explainable AI (XAI)
Methoden und Techniken, die KI-Entscheidungen für Menschen nachvollziehbar machen – von SHAP-Werten bis zu Attention-Visualisierungen.
Fairness
Das Prinzip, dass KI-Systeme alle Personen und Gruppen gleich und gerecht behandeln sollten – ohne systematische Bevorzugung oder Benachteiligung.
Federated Learning
Eine Trainingsmethode, bei der das Modell zu den Daten kommt statt umgekehrt – Daten bleiben lokal, nur Modell-Updates werden geteilt.
Guardrails
Sicherheitsmechanismen und Regeln, die das Verhalten von KI-Systemen einschränken und sicherstellen, dass Ausgaben sicher, korrekt und angemessen sind.
Identity and Access Management
Das Framework zur Verwaltung digitaler Identitäten und deren Zugriffsrechte – wer darf was in welchem System tun.
ISO/IEC 27001
Der internationale Standard für Informationssicherheits-Managementsysteme (ISMS) – definiert Anforderungen für systematisches Sicherheitsmanagement.
Jailbreak
Techniken, mit denen Angreifer versuchen, die Sicherheitsmechanismen und Richtlinien eines LLMs zu umgehen, um unerwünschte oder schädliche Ausgaben zu erzwingen.
JSON Web Token (JWT)
Ein kompakter, URL-sicherer Token-Standard für die sichere Übertragung von Informationen zwischen Parteien – der De-facto-Standard für API-Authentifizierung.
Key Rotation / Credential Rotation
Der regelmäßige Austausch von kryptografischen Schlüsseln und Credentials – reduziert das Risiko bei Kompromittierung.
AI Alignment
Der Prozess, KI-Systeme so auszurichten, dass sie menschliche Werte, Absichten und Sicherheitsanforderungen zuverlässig befolgen.
Model Governance / AI Governance
Richtlinien, Prozesse und Kontrollen für die verantwortungsvolle Entwicklung, Bereitstellung und Überwachung von KI-Modellen über ihren gesamten Lebenszyklus.
Model Poisoning / Data Poisoning
Ein Angriff, bei dem Trainingsdaten manipuliert werden, um das Verhalten eines ML-Modells zu beeinflussen – eine wachsende Bedrohung für KI-Systeme.
OAuth 2.0
Ein offenes Autorisierungsprotokoll, das Anwendungen begrenzten Zugriff auf Nutzerkonten ermöglicht – ohne dass der Nutzer sein Passwort teilen muss.
Open Web Application Security Project
Die Open Web Application Security Project Foundation – definiert die wichtigsten Web-Sicherheitsrisiken und Best Practices für sichere Entwicklung.
Prompt Injection
Ein Sicherheitsangriff, bei dem bösartige Eingaben ein LLM dazu bringen, seine Anweisungen zu ignorieren und unerwünschte Aktionen auszuführen.
Role-Based / Attribute-Based Access Control
Zwei Modelle für Zugriffssteuerung – RBAC basiert auf Rollen, ABAC auf Attributen. Grundlage für sichere Autorisierung.
Red Teaming
Ein systematischer Ansatz, bei dem Experten versuchen, Schwachstellen in KI-Systemen zu finden – durch Simulation von Angriffen, Missbrauch und Edge Cases.
Responsible AI
Ein übergreifendes Framework für die ethische, faire und transparente Entwicklung und Nutzung von KI-Systemen – von Bias-Erkennung bis Umweltauswirkungen.
Robustness
Die Fähigkeit eines KI-Modells, auch bei unerwarteten, verrauschten oder manipulierten Eingaben korrekte und verlässliche Ergebnisse zu liefern – ein Schlüsselfaktor für produktionsreife KI.
Secrets Management
Die sichere Speicherung und Verwaltung von sensiblen Daten wie API-Keys, Passwörtern und Zertifikaten – nie im Code, immer verschlüsselt.
Service Organization Control 2
Ein Audit-Standard für Service-Provider, der Sicherheit, Verfügbarkeit, Integrität, Vertraulichkeit und Datenschutz prüft – oft Voraussetzung für Enterprise-Kunden.
Threat Modeling
Ein strukturierter Prozess zur Identifikation von Sicherheitsbedrohungen in Systemen – bevor Angreifer sie finden.
Encryption
Die Umwandlung von lesbaren Daten in einen unlesbaren Code, der nur mit dem richtigen Schlüssel wieder entschlüsselt werden kann – Grundlage jeder digitalen Sicherheit.
Zero Trust Architecture
Ein Sicherheitsmodell, das keinem Nutzer, Gerät oder Netzwerk automatisch vertraut – jeder Zugriff wird einzeln verifiziert, unabhängig vom Standort.