<EbeneX/>
Daten DevOps · Updated 3. März 2026

Vektordatenbank

Definition

Eine spezialisierte Datenbank, die hochdimensionale Vektoren (Embeddings) speichert und effiziente Ähnlichkeitssuchen ermöglicht.

Fortgeschritten 3 Min. Lesezeit EN: Vector Database

Einfach erklärt

Eine Vektordatenbank ist eine spezielle Datenbank, die für die Speicherung und Suche von Embeddings optimiert ist. Während eine normale Datenbank nach exakten Werten sucht (“Finde alle Kunden mit PLZ 10115”), sucht eine Vektordatenbank nach Ähnlichkeit (“Finde die 10 Dokumente, die dieser Frage am ähnlichsten sind”).

Warum braucht man eine Vektordatenbank?

Wenn du ein RAG-System baust, musst du:

  1. Tausende Dokumente als Embeddings speichern
  2. Bei jeder Nutzeranfrage die relevantesten Dokumente in Millisekunden finden
  3. Das Ganze skalierbar und zuverlässig betreiben

Eine Vektordatenbank löst genau diese Aufgaben.

Der typische Workflow:

  1. Indexierung: Dokumente werden in Chunks aufgeteilt, embeddet und gespeichert
  2. Suche: Eine Anfrage wird embeddet und die ähnlichsten Vektoren werden gefunden
  3. Ergebnis: Die zugehörigen Dokument-Chunks werden zurückgegeben

Vergleich der Optionen:

LösungVektorenLatenzAufwandIdeal für
In-Memory (NumPy)< 10KSchnellMinimalPrototypen
pgvector< 1MGutGeringBestehende PostgreSQL-Infrastruktur
ChromaDB< 1MGutGeringLokale Entwicklung
Qdrant/Weaviate< 100MSehr gutMittelProduktion
Pinecone< 1BSehr gutGering (Managed)Enterprise

Technischer Deep Dive

Indexstrukturen

Die Herausforderung: Exakte Nearest-Neighbor-Suche in hochdimensionalen Räumen ist extrem langsam (O(n) pro Query). Vektordatenbanken nutzen Approximate Nearest Neighbor (ANN) Algorithmen:

HNSW (Hierarchical Navigable Small World):

  • Graph-basierter Index mit mehreren Ebenen
  • Sehr schnelle Suche mit hoher Genauigkeit (Recall > 95%)
  • Standard in den meisten Vektordatenbanken
  • Trade-off: Hoher Speicherbedarf (Index im RAM)

IVF (Inverted File Index):

  • Teilt den Vektorraum in Cluster (Voronoi-Zellen)
  • Suche nur in den nächsten Clustern statt im gesamten Raum
  • Weniger Speicher als HNSW, aber etwas langsamer
  • Gut kombinierbar mit Product Quantization (IVF-PQ)

Product Quantization (PQ):

  • Komprimiert Vektoren durch Aufteilung in Subvektoren
  • Drastische Speicherreduktion (z.B. 1536D Float32 → 48 Bytes)
  • Trade-off: Leichter Genauigkeitsverlust

Moderne Vektordatenbanken unterstützen:

Metadata-Filterung:

  • Vektoren mit Metadaten versehen (Kategorie, Datum, Autor)
  • Filter vor oder nach der Vektorsuche anwenden
  • Pre-Filtering: Genauer, aber langsamer
  • Post-Filtering: Schneller, aber kann zu wenigen Ergebnissen führen

Hybrid Search:

  • Kombination aus Vektorsuche (semantisch) und Keyword-Suche (BM25)
  • Reciprocal Rank Fusion (RRF) für die Kombination der Ergebnisse
  • Beste Ergebnisse für die meisten Retrieval-Aufgaben

Skalierung und Performance

Sharding:

  • Verteilung der Vektoren auf mehrere Nodes
  • Horizontale Skalierung für Milliarden von Vektoren

Replikation:

  • Kopien der Daten für Hochverfügbarkeit
  • Read-Replicas für höheren Durchsatz

Quantisierung:

  • Float32 → Float16: 2x weniger Speicher, minimaler Qualitätsverlust
  • Float32 → Int8: 4x weniger Speicher
  • Binary Quantization: 32x weniger Speicher, für Reranking geeignet

Best Practices

  • Embedding-Modell und Datenbank zusammen evaluieren: Die Qualität hängt von beiden ab
  • Chunk-Größe testen: 256-1024 Tokens, abhängig vom Use Case
  • Overlap verwenden: 10-20% Überlappung zwischen Chunks
  • Metadaten mitführen: Quelle, Datum, Kategorie für spätere Filterung
  • Monitoring: Latenz, Recall und Relevanz kontinuierlich messen
  • Backup-Strategie: Regelmäßige Snapshots der Vektordaten

Eine Vektordatenbank ist wie eine Bibliothek, die Bücher nicht nach Alphabet oder Genre sortiert, sondern nach inhaltlicher Ähnlichkeit – wenn du ein Buch über Hunde suchst, findest du automatisch auch Bücher über Welpen, Hundeerziehung und Tiermedizin in der Nähe.

Speichert Embedding-Vektoren und ermöglicht schnelle Ähnlichkeitssuchen

Kernkomponente von RAG-Systemen und semantischer Suche

Nutzt spezielle Indexstrukturen (HNSW, IVF) für effiziente Suche in Millionen von Vektoren

RAG-Systeme

Speicherung und Abruf von Dokument-Embeddings für LLM-gestützte Frage-Antwort-Systeme

Semantische Suche

Suche nach Bedeutung statt nach Keywords in Produktkatalogen, Dokumenten oder Wissensdatenbanken

Empfehlungssysteme

Ähnliche Produkte, Filme oder Musik basierend auf Embedding-Ähnlichkeit empfehlen

Anomalieerkennung

Ungewöhnliche Datenpunkte identifizieren, die weit von normalen Vektoren entfernt liegen

Brauche ich eine Vektordatenbank für RAG?

Für Prototypen reicht oft eine einfache In-Memory-Lösung oder eine Erweiterung wie pgvector für PostgreSQL. Für Produktion mit vielen Dokumenten und hohen Anforderungen an Latenz und Skalierung ist eine dedizierte Vektordatenbank empfehlenswert.

Was ist der Unterschied zu einer normalen Datenbank?

Klassische Datenbanken sind für exakte Suche optimiert (WHERE name = 'Max'). Vektordatenbanken sind für Ähnlichkeitssuche optimiert – sie finden die nächsten Nachbarn eines Vektors in einem hochdimensionalen Raum, was mit klassischen Indizes nicht effizient möglich ist.

Wie viele Vektoren kann eine Vektordatenbank speichern?

Moderne Vektordatenbanken skalieren auf Hunderte Millionen bis Milliarden Vektoren. Die Limits hängen von der Vektordimension, dem verfügbaren RAM und der gewählten Indexstruktur ab.

Kann ich PostgreSQL als Vektordatenbank nutzen?

Ja, mit der pgvector-Erweiterung. Für kleinere Datensätze (< 1M Vektoren) ist das eine pragmatische Lösung, die keine zusätzliche Infrastruktur erfordert. Für größere Datensätze sind spezialisierte Lösungen performanter.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.