Regularisierung
Techniken, die verhindern, dass ein KI-Modell Trainingsdaten auswendig lernt (Overfitting), indem sie die Modellkomplexität einschränken.
Das fundamentale Dilemma im Machine Learning – einfache Modelle (hoher Bias) vs. komplexe Modelle (hohe Varianz). Die Kunst liegt in der Balance.
Bias und Varianz sind zwei Fehlerquellen, die gegeneinander arbeiten.
Hoher Bias (Underfitting):
├── Modell zu einfach
├── Lernt Muster nicht
└── Fehler auf Training UND Test hoch
Hohe Varianz (Overfitting):
├── Modell zu komplex
├── Lernt Noise auswendig
└── Training gut, Test schlecht
Ziel: Sweet Spot in der Mitte
Visualisierung:
Error
│
│ \ /
│ \ Varianz /
│ \ /
│ \ /
│ \_______/ ← Sweet Spot
│ Bias
│
└─────────────────────────
Modellkomplexität →
# Total Error = Bias² + Variance + Irreducible Noise
def decompose_error(y_true, predictions_ensemble):
# predictions_ensemble: Liste von Vorhersagen verschiedener Modelle
mean_pred = np.mean(predictions_ensemble, axis=0)
# Bias²: (E[pred] - true)²
bias_squared = np.mean((mean_pred - y_true) ** 2)
# Variance: E[(pred - E[pred])²]
variance = np.mean([np.mean((p - mean_pred) ** 2)
for p in predictions_ensemble])
return bias_squared, variance
| Methode | Effekt auf Bias | Effekt auf Varianz |
|---|---|---|
| Mehr Daten | - | ↓ |
| Weniger Features | ↑ | ↓ |
| L2 Regularisierung | ↑ | ↓ |
| Dropout | ↑ | ↓ |
| Ensemble | - | ↓ |
Bias-Variance ist wie Zielen: Hoher Bias = immer daneben, aber konsistent. Hohe Varianz = mal Treffer, mal weit daneben. Das Ziel: Konsistent ins Schwarze.
Bias: Systematischer Fehler durch zu einfaches Modell
Varianz: Streuung durch zu komplexes Modell
Total Error = Bias² + Varianz + Noise
Modellauswahl
Richtige Komplexität wählen
Hyperparameter-Tuning
Regularisierung anpassen
Ensemble-Methoden
Varianz durch Averaging reduzieren
Hoher Trainingsfehler UND hoher Testfehler. Modell ist zu einfach (Underfitting).
Niedriger Trainingsfehler, aber hoher Testfehler. Modell ist zu komplex (Overfitting).