Responsible AI
Ein übergreifendes Framework für die ethische, faire und transparente Entwicklung und Nutzung von KI-Systemen – von Bias-Erkennung bis Umweltauswirkungen.
Ein Design-Ansatz, der den Menschen in den Mittelpunkt der KI-Entwicklung stellt – Bedürfnisse, Fähigkeiten und Grenzen der Nutzer berücksichtigen.
Human-Centered AI stellt Menschen in den Mittelpunkt – KI soll helfen, nicht dominieren.
Prinzipien:
| Prinzip | Bedeutung |
|---|---|
| Transparenz | Erkläre, was die KI tut und warum |
| Kontrolle | Nutzer kann überschreiben und anpassen |
| Vertrauen | Zeige Unsicherheit, sei ehrlich |
| Augmentation | Verstärke menschliche Fähigkeiten |
1. Wer sind die Nutzer?
└── Expertise, Kontext, Bedürfnisse
2. Was ist das Ziel?
└── Effizienz, Qualität, Lernen?
3. Wie viel Autonomie?
└── Vollautomatisch vs. Empfehlung
4. Was bei Fehlern?
└── Wie korrigieren Nutzer die KI?
5. Wie baut man Vertrauen auf?
└── Erklärungen, Kalibrierung, Feedback
| Level | KI-Rolle | Beispiel |
|---|---|---|
| 0 | Keine KI | Manuelle Arbeit |
| 1 | Vorschläge | Autocomplete |
| 2 | Empfehlungen | ”Vielleicht meinten Sie…“ |
| 3 | Entscheidung mit Veto | Spam-Filter mit Undo |
| 4 | Vollautomatisch | Autonomes Fahren |
Human-Centered AI ist wie ein guter Assistent: Er versteht deine Bedürfnisse, erklärt seine Vorschläge, lässt dich die finale Entscheidung treffen und lernt aus deinem Feedback.
Menschen im Mittelpunkt, nicht Technologie
Transparenz, Kontrolle, Vertrauen
Augmentation statt Ersetzung
Medizinische KI
Arzt entscheidet, KI unterstützt
Kreative Tools
KI als Co-Creator, nicht Ersatz
Entscheidungsunterstützung
Empfehlungen mit Erklärungen
AI-First: Was kann KI? Human-Centered: Was brauchen Menschen? Beides wichtig, aber Human-Centered stellt sicher, dass KI tatsächlich hilft.
User Research, Erklärbarkeit einbauen, Kontrolle geben, Feedback-Loops, iteratives Testen mit echten Nutzern.