Drift (Data Drift / Model Drift)
Die schleichende Verschlechterung eines ML-Modells in Produktion, weil sich die Eingabedaten oder die Zusammenhänge zwischen Eingabe und Ausgabe über die Zeit verändern.
Die kontinuierliche Überwachung von KI-Systemen in Produktion, um Performance-Probleme, Datenänderungen und Modellverschlechterung frühzeitig zu erkennen.
Monitoring überwacht KI-Systeme in Produktion und schlägt Alarm, wenn etwas schiefläuft. Ohne Monitoring merkst du erst, dass dein Modell schlecht geworden ist, wenn Nutzer sich beschweren – oder schlimmer, wenn Geschäftsentscheidungen auf falschen Vorhersagen basieren.
KI-Monitoring ist komplexer als klassisches Software-Monitoring, weil Modelle auf subtile Weise degradieren können. Data Drift bedeutet, dass sich die Eingabedaten im Laufe der Zeit verändern – das Modell wurde auf anderen Daten trainiert als es jetzt sieht. Concept Drift bedeutet, dass sich die Beziehung zwischen Input und Output verändert hat – was früher “Spam” war, sieht heute anders aus. Gutes Monitoring erkennt diese Shifts frühzeitig und triggert Retraining oder Alerts.
Was wird überwacht?
| Kategorie | Metriken | Warum wichtig |
|---|---|---|
| Modell-Performance | Accuracy, F1, Latenz | Funktioniert das Modell noch gut? |
| Datenqualität | Missing Values, Schema | Kommen die richtigen Daten an? |
| Drift | Data Drift, Concept Drift | Haben sich die Daten verändert? |
| System | CPU, RAM, GPU, Errors | Läuft die Infrastruktur stabil? |
| Business | Conversion, Nutzerzufriedenheit | Bringt das Modell Mehrwert? |
Ein E-Commerce-Unternehmen setzt ein KI-Modell ein, um Produktempfehlungen zu generieren. Durch Monitoring erkennt das Team, dass die Conversion-Rate sinkt. Eine Analyse zeigt, dass sich die Kundenpräferenzen geändert haben (Concept Drift). Das Modell wird daraufhin mit aktuellen Daten retrainiert, was zu einer Verbesserung der Empfehlungen und einer höheren Conversion-Rate führt.
In einer Klinik wird ein KI-System zur Diagnose von Krankheiten verwendet. Das Monitoring zeigt eine steigende Fehlerquote bei der Diagnose bestimmter Krankheiten. Die Datenanalyse offenbart, dass neue Symptome in den Patientendaten nicht berücksichtigt wurden. Das Modell wird aktualisiert, um diese neuen Informationen zu integrieren, was die Diagnosegenauigkeit verbessert.
Monitoring von KI-Systemen hat sich in den letzten Jahren stark weiterentwickelt. Früher lag der Fokus hauptsächlich auf der Modell-Performance während der Entwicklungsphase. Mit dem Aufkommen von Machine Learning Operations (MLOps) und der Notwendigkeit, KI-Modelle in der Produktion kontinuierlich zu überwachen, hat sich das Verständnis von Monitoring erweitert. Heutzutage ist es ein integraler Bestandteil des Lebenszyklus von KI-Systemen, um sicherzustellen, dass sie zuverlässig und effizient arbeiten.
Monitoring ist wie die Instrumententafel im Cockpit: Piloten (ML Engineers) überwachen ständig alle wichtigen Werte und werden sofort alarmiert, wenn etwas aus dem Normalbereich fällt.
Kontinuierliche Überwachung von Modell-Performance, Datenqualität und Systemgesundheit
Erkennt Data Drift, Model Drift und technische Probleme frühzeitig
Grundlage für automatisiertes Retraining und Alerting
Performance-Tracking
Überwachung von Accuracy, Latenz und Throughput in Echtzeit
Drift-Erkennung
Automatische Erkennung von Veränderungen in Eingabedaten oder Modellverhalten
Alerting
Automatische Benachrichtigung bei Performance-Einbrüchen
Cost Monitoring
Überwachung von API-Kosten und Ressourcenverbrauch
Latenz (TTFT, TPS), Kosten pro Anfrage, Halluzinationsrate, Nutzerzufriedenheit, Token-Verbrauch, Error Rate und Guardrail-Auslösungen. Tools wie Langfuse bieten LLM-spezifisches Tracing.
Automatische Alerts für kritische Metriken (sofort). Dashboards für tägliche Überprüfung. Tiefere Analysen wöchentlich oder bei Auffälligkeiten. Je kritischer die Anwendung, desto engmaschiger.
Wichtige Metriken umfassen Genauigkeit, Präzision, Recall und F1-Score, die die Leistung des Modells bewerten. Zusätzlich sollten Sie auch Metriken zur Überwachung der Eingabedaten und der Modellverzerrung berücksichtigen, um sicherzustellen, dass das Modell unter realen Bedingungen gut funktioniert.
Anomalien können durch die Implementierung von Monitoring-Tools erkannt werden, die Abweichungen von den erwarteten Leistungsmetriken überwachen. Machine-Learning-Algorithmen zur Anomalieerkennung können ebenfalls eingesetzt werden, um ungewöhnliche Muster in den Vorhersagen oder Eingabedaten zu identifizieren.