Temperatur
Ein Parameter bei der Textgenerierung, der steuert, wie kreativ oder deterministisch die Ausgabe eines Sprachmodells ist.
Die rohen, unnormalisierten Ausgabewerte eines neuronalen Netzes, bevor sie durch Softmax in Wahrscheinlichkeiten umgewandelt werden.
Logits sind die “Rohwerte”, die ein Sprachmodell für jedes mögliche nächste Token berechnet. Sie zeigen, wie “überzeugt” das Modell von jedem Token ist – bevor daraus Wahrscheinlichkeiten werden.
Warum sind Logits wichtig?
Der Ablauf:
Eingabe → Modell → Logits → Temperatur → Softmax → Wahrscheinlichkeiten → Sampling → Token
[2.5] [/T] [→] [0.45] [→] "Katze"
[1.8] [0.30]
[0.3] [0.15]
[-1.2] [0.10]
Unterschied zu Wahrscheinlichkeiten: Logits können beliebige Zahlen sein (auch negativ). Erst die Softmax-Funktion wandelt sie in Wahrscheinlichkeiten (0-1, Summe = 1) um.
P(token_i) = exp(logit_i) / Σ_j exp(logit_j)
Wandelt beliebige Zahlenwerte in eine Wahrscheinlichkeitsverteilung um (alle positiv, Summe = 1).
Einige APIs erlauben “Logit Bias” – die manuelle Anpassung von Logits für bestimmte Tokens:
OpenAI gibt optional logprobs zurück – die logarithmierten Wahrscheinlichkeiten der Top-Tokens. Nützlich für:
Logits: [2.5, 1.8, 0.3, -1.2]
Temperatur 0.5 (Logits / 0.5 = schärfer):
-> [5.0, 3.6, 0.6, -2.4] → Wahrscheinlichkeiten: [0.72, 0.24, 0.03, 0.01]
Temperatur 2.0 (Logits / 2.0 = flacher):
-> [1.25, 0.9, 0.15, -0.6] → Wahrscheinlichkeiten: [0.38, 0.32, 0.22, 0.08]
Niedrige Temperatur → das wahrscheinlichste Token dominiert stark. Hohe Temperatur → auch unwahrscheinliche Tokens bekommen eine Chance.
Wenn ein Modell eine Antwort mit niedrigen logprobs generiert (z. B. unter -3.0), ist das ein Signal für Unsicherheit. Automatisierte Systeme können solche Stellen markieren oder zur Verifikation flaggen.
Logits sind wie die Rohpunktzahl in einer Prüfung, bevor sie in eine Note umgerechnet wird. Die Rohpunkte zeigen die relative Stärke, aber erst die Umrechnung (Softmax) macht sie vergleichbar.
Rohe Ausgabewerte des Modells vor der Wahrscheinlichkeitsberechnung
Werden durch Softmax in Wahrscheinlichkeiten (0-1) umgewandelt
Temperatur und Top-p wirken auf die Logits, bevor Tokens ausgewählt werden
Confidence Scoring
Logits zeigen, wie sicher das Modell bei seiner Vorhersage ist
Token-Analyse
Untersuchung, welche Tokens das Modell in Betracht zieht
Custom Sampling
Eigene Sampling-Strategien basierend auf den rohen Logits implementieren
Logits sind rohe Zahlenwerte (können negativ sein, beliebig groß). Wahrscheinlichkeiten sind normalisiert (0-1, Summe = 1). Die Softmax-Funktion wandelt Logits in Wahrscheinlichkeiten um.
Sie sind die Grundlage für alle Sampling-Strategien. Temperatur, Top-p und Top-k wirken auf die Logits. Außerdem können Logits für Confidence Scoring und Halluzinationserkennung genutzt werden.
Logits sind die rohen Ausgabewerte eines Modells und können direkt als Indikatoren für die Zugehörigkeit zu einer Klasse interpretiert werden. Höhere Logits deuten auf eine höhere Wahrscheinlichkeit für die entsprechende Klasse hin, müssen jedoch durch Softmax normalisiert werden, um Wahrscheinlichkeiten zu erhalten.
Ja, Logits können negative Werte annehmen, da sie nicht auf einen bestimmten Bereich beschränkt sind. Die Umwandlung in Wahrscheinlichkeiten erfolgt erst durch die Anwendung der Softmax-Funktion, die alle Logits in den Bereich von 0 bis 1 transformiert.