<EbeneX/>
DevOps Praxis · Updated 3. März 2026

Weights & Biases (W&B)

Definition

Eine MLOps-Plattform für Experiment-Tracking, Modell-Visualisierung und Team-Kollaboration – der Standard in der KI-Forschung und bei führenden KI-Unternehmen.

Fortgeschritten 2 Min. Lesezeit EN: Weights & Biases (W&B, wandb)

Einfach erklärt

Weights & Biases (kurz W&B oder wandb) ist die meistgenutzte MLOps-Plattform in der KI-Forschung. OpenAI, Hugging Face, NVIDIA und hunderte andere führende KI-Organisationen nutzen W&B, um ihre Experimente zu verfolgen und Teams zu koordinieren.

Der Einstieg ist bewusst einfach gehalten: Zwei Zeilen Code reichen, um ein Experiment vollständig zu protokollieren. W&B übernimmt dann automatisch das Logging von Metriken, Systemressourcen (GPU-Auslastung, RAM) und Hyperparametern – und visualisiert alles in Echtzeit in einem interaktiven Dashboard.

import wandb

# Experiment initialisieren
wandb.init(project="llm-finetuning", config={
    "learning_rate": 2e-5,
    "epochs": 3,
    "model": "llama-3-8b"
})

# Im Training-Loop
for epoch in range(config.epochs):
    loss = train_one_epoch(model, dataloader)
    wandb.log({"loss": loss, "epoch": epoch})

# Modell speichern
wandb.save("model.pt")
wandb.finish()

Technischer Deep Dive

Kernfunktionen

Experiment-Tracking: Jeder wandb.log()-Aufruf sendet Metriken an die W&B-Server. Die Kurven werden live aktualisiert – man kann den Training-Fortschritt von überall verfolgen.

Sweeps (Hyperparameter-Tuning): W&B Sweeps automatisieren die Hyperparameter-Suche mit verschiedenen Strategien:

# sweep.yaml
method: bayes  # oder grid, random
metric:
  name: val_loss
  goal: minimize
parameters:
  learning_rate:
    distribution: log_uniform_values
    min: 1e-5
    max: 1e-3
  batch_size:
    values: [16, 32, 64]

Artifacts: Versionierte Speicherung von Datensätzen, Modellen und Evaluations-Ergebnissen mit vollständiger Lineage.

W&B vs. MLflow im Vergleich

FeatureW&BMLflow
Setup2 Zeilen CodeMehr Konfiguration
UISehr gutSolide
HostingSaaS (+ self-hosted)Self-hosted
SweepsEingebautExtern (Optuna etc.)
PreisFreemiumOpen-Source
DatenschutzSaaS = Daten bei W&BVollständig self-hosted

Weights & Biases ist wie ein digitales Laborbuch mit Echtzeit-Dashboard: Jedes Experiment wird automatisch protokolliert, Kurven werden live gezeichnet, und das Team kann gemeinsam die Ergebnisse analysieren – von überall.

Automatisches Logging von Metriken, Hyperparametern und Modell-Artefakten

Interaktive Dashboards für Experiment-Vergleiche in Echtzeit

Sweeps: Automatisiertes Hyperparameter-Tuning mit Bayesian Optimization

LLM Fine-Tuning

Training-Kurven, Gradient-Normen und Evaluation-Metriken in Echtzeit verfolgen

Hyperparameter-Suche

Automatisierte Sweeps mit Bayesian Optimization für optimale Konfigurationen

Team-Kollaboration

Gemeinsame Projekt-Dashboards für verteilte Research-Teams

Modell-Versionierung

Artefakte und Modelle mit vollständiger Provenance speichern

W&B vs. MLflow – was ist besser?

W&B hat die bessere UI, mehr Visualisierungsoptionen und ist einfacher einzurichten. MLflow ist Open-Source und self-hosted – besser für Datenschutz-sensible Umgebungen. Viele Unternehmen nutzen beide: W&B für Research, MLflow für Production.

Ist W&B kostenlos?

Ja, für Einzelpersonen und akademische Nutzung kostenlos. Teams zahlen ab einer bestimmten Nutzung. Alle Modelle und Daten können auch self-hosted betrieben werden (W&B Server).

Welche Frameworks unterstützt W&B?

PyTorch, TensorFlow, Keras, JAX, scikit-learn, XGBoost, Hugging Face Transformers, Lightning und viele mehr. Die Integration ist meist einzeilig: wandb.init() und wandb.log().

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.