<EbeneX/>
Grundlagen · Updated 3. März 2026

Loss Function

Definition

Eine mathematische Funktion, die misst, wie weit die Vorhersage eines Modells von der tatsächlichen Antwort entfernt ist – das zentrale Optimierungsziel beim Training.

Fortgeschritten 2 Min. Lesezeit EN: Loss Function

Einfach erklärt

Die Loss Function (Verlustfunktion) ist das Maß dafür, wie schlecht ein Modell gerade ist. Das Ziel des Trainings: diesen Wert so klein wie möglich machen. Ohne Loss Function gibt es kein Lernen – sie ist das Signal, das dem Modell sagt, in welche Richtung es sich verbessern soll.

Die Wahl der richtigen Loss Function ist entscheidend und hängt von der Aufgabe ab. Für Regression (Zahlen vorhersagen) wird oft Mean Squared Error verwendet. Für Klassifikation Cross-Entropy Loss. Für LLMs ist es typischerweise der negative Log-Likelihood der nächsten Token-Vorhersage. Eine falsch gewählte Loss Function führt dazu, dass das Modell das Falsche optimiert – es minimiert die Loss, aber löst nicht das eigentliche Problem. Das nennt sich “Goodhart’s Law” in der KI.

Die wichtigsten Loss Functions:

Loss FunctionAufgabeFormel (vereinfacht)
MSE (Mean Squared Error)RegressionDurchschnitt der quadrierten Fehler
Cross-EntropyKlassifikation-log(vorhergesagte Wahrscheinlichkeit)
Binary Cross-EntropyBinäre KlassifikationSpezialfall für 2 Klassen
Huber LossRobuste RegressionKombination aus MSE und MAE

Der Trainingsprozess:

  1. Modell macht eine Vorhersage
  2. Loss Function berechnet den Fehler
  3. Backpropagation berechnet Gradienten
  4. Gradient Descent passt Parameter an
  5. Wiederholen bis Loss minimal ist

Technischer Deep Dive

Cross-Entropy Loss

Standard für Klassifikation und LLMs:

Loss = -Σ y_true * log(y_pred)

Bei LLMs: Für jedes Token wird die Cross-Entropy zwischen der vorhergesagten Token-Wahrscheinlichkeit und dem tatsächlichen nächsten Token berechnet. Perplexity = e^(Loss) ist die übliche Metrik.

Spezielle Loss Functions

  • Contrastive Loss: Für Embedding-Modelle (ähnliche Paare zusammen, verschiedene auseinander)
  • Triplet Loss: Anker + positives Beispiel + negatives Beispiel
  • Focal Loss: Gewichtet schwierige Beispiele stärker (bei Class Imbalance)
  • KL-Divergenz: Misst Unterschied zwischen Wahrscheinlichkeitsverteilungen (bei RLHF)

Loss-Kurven interpretieren

  • Training Loss sinkt, Validation Loss sinkt: Alles gut, weiter trainieren
  • Training Loss sinkt, Validation Loss steigt: Overfitting → Regularisierung nötig
  • Beide stagnieren hoch: Underfitting → komplexeres Modell oder bessere Daten
  • Loss springt: Learning Rate zu hoch oder fehlerhafte Daten

Die Loss Function ist wie die Punkteanzeige bei einem Dartspiel: Sie zeigt dir, wie weit du vom Bullseye entfernt bist. Je niedriger der Wert, desto besser triffst du.

Quantifiziert den Fehler zwischen Modellvorhersage und tatsächlichem Ergebnis

Das Training minimiert die Loss Function durch Anpassung der Parameter

Verschiedene Aufgaben erfordern verschiedene Loss Functions

Klassifikation

Cross-Entropy Loss misst, wie gut ein Modell Kategorien vorhersagt

Regression

Mean Squared Error misst die Abweichung bei Zahlenwert-Vorhersagen

Textgenerierung

LLMs nutzen Cross-Entropy Loss für die Next-Token-Prediction

Was bedeutet es, wenn der Loss nicht sinkt?

Mögliche Ursachen: Learning Rate zu hoch oder zu niedrig, fehlerhafte Daten, zu einfaches Modell, Bug im Code. Erste Maßnahme: Learning Rate anpassen und Daten prüfen.

Was ist der Unterschied zwischen Loss und Metrik?

Die Loss Function wird für die Optimierung (Gradient Descent) genutzt und muss differenzierbar sein. Metriken wie Accuracy oder F1-Score dienen der menschlichen Evaluation und müssen nicht differenzierbar sein.

Welche Arten von Loss Functions gibt es?

Es gibt verschiedene Arten von Loss Functions, darunter Mean Squared Error für Regression, Cross-Entropy für Klassifikation und Hinge Loss für Support Vector Machines. Die Wahl der richtigen Loss Function hängt von der spezifischen Aufgabe und den Daten ab.

Wie beeinflusst die Wahl der Loss Function das Training eines Modells?

Die Wahl der Loss Function hat einen direkten Einfluss auf die Lernkurve und die Konvergenzgeschwindigkeit eines Modells. Eine ungeeignete Loss Function kann zu schlechten Ergebnissen führen, weshalb es wichtig ist, sie sorgfältig auszuwählen und gegebenenfalls anzupassen.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.