Responsible AI
Ein übergreifendes Framework für die ethische, faire und transparente Entwicklung und Nutzung von KI-Systemen – von Bias-Erkennung bis Umweltauswirkungen.
Die weltweit erste umfassende KI-Regulierung – das EU-Gesetz klassifiziert KI-Systeme nach Risiko und stellt Anforderungen an Transparenz, Sicherheit und menschliche Aufsicht.
Der AI Act ist die weltweit erste umfassende KI-Regulierung. Er trat 2024 in Kraft und wird stufenweise bis 2026 vollständig anwendbar.
Die Grundidee: Nicht jede KI braucht gleich viel Regulierung. Ein Spam-Filter ist harmlos, eine KI für Kreditentscheidungen kann Leben verändern. Deshalb: risikobasierter Ansatz.
Die vier Risikokategorien:
🔴 Unannehmbares Risiko → VERBOTEN
Social Scoring, manipulative KI, Echtzeit-Biometrie
🟠 Hohes Risiko → STRENGE AUFLAGEN
Medizin-KI, Personalauswahl, Kreditvergabe, autonome Fahrzeuge
🟡 Begrenztes Risiko → TRANSPARENZPFLICHTEN
Chatbots, Deepfakes, Emotion Recognition
🟢 Minimales Risiko → KEINE AUFLAGEN
Spam-Filter, KI in Videospielen, Empfehlungssysteme
Was bedeutet das für dich? Wenn du KI-Systeme entwickelst oder einsetzt, musst du wissen, in welche Kategorie sie fallen – und die entsprechenden Anforderungen erfüllen.
| Datum | Was tritt in Kraft |
|---|---|
| Feb 2025 | Verbote (Social Scoring, manipulative KI) |
| Aug 2025 | Pflichten für GPAI / Foundation Models |
| Aug 2026 | Hochrisiko-KI Anforderungen |
| Aug 2027 | Vollständige Anwendung |
Sofortiger Handlungsbedarf:
Häufige Missverständnisse:
Beide Regelwerke ergänzen sich: Die DSGVO schützt personenbezogene Daten, der AI Act reguliert das Verhalten von KI-Systemen. Bei KI-Anwendungen mit Personenbezug (z. B. Recruiting-KI, Kredit-Scoring) gelten beide gleichzeitig.
Der AI Act ist wie die Lebensmittelverordnung: Nicht jedes Lebensmittel wird gleich reguliert. Wasser braucht wenig Kontrolle, Medikamente viel. Genauso werden KI-Systeme nach Risiko eingestuft.
Risikobasierter Ansatz: Unannehmbares, hohes, begrenztes und minimales Risiko
Verbote: Social Scoring, Echtzeit-Biometrie in öffentlichen Räumen (mit Ausnahmen)
Transparenzpflichten: KI-generierte Inhalte müssen als solche gekennzeichnet werden
Compliance
Unternehmen müssen ihre KI-Systeme klassifizieren und Anforderungen erfüllen
Hochrisiko-KI
Medizin, Personalauswahl, Kreditvergabe – strenge Anforderungen an Dokumentation und Testing
Generative KI
LLM-Anbieter müssen Transparenzpflichten erfüllen (Trainingsdaten, Capabilities)
KI-Kennzeichnung
Deepfakes und KI-generierte Inhalte müssen als solche erkennbar sein
Stufenweise: Verbote ab Februar 2025, Hochrisiko-Anforderungen ab August 2026. Unternehmen sollten jetzt mit der Vorbereitung beginnen.
Teilweise. Open-Source-Modelle haben Erleichterungen, aber bei Hochrisiko-Anwendungen gelten die Anforderungen unabhängig davon ob das Modell Open Source ist.
Die Risikoklassifizierung im AI Act erfolgt anhand von Kriterien wie der potenziellen Gefährdung für die öffentliche Sicherheit und die Grundrechte. KI-Systeme werden in Kategorien wie niedrig, mittel und hoch eingeteilt, was unterschiedliche Anforderungen an Transparenz und Aufsicht mit sich bringt.
Unternehmen, die gegen den AI Act verstoßen, können mit erheblichen Geldstrafen belegt werden, die bis zu 6% des weltweiten Jahresumsatzes betragen können. Zudem können rechtliche Schritte und der Verlust von Marktanteilen drohen.