<EbeneX/>
Architektur LLM Praxis · Updated 3. März 2026

Model Context Protocol (MCP)

Definition

Ein offenes Protokoll von Anthropic, das KI-Modellen standardisierten Zugriff auf externe Datenquellen, Tools und Systeme ermöglicht – wie ein universeller USB-C-Anschluss für KI-Anwendungen.

Fortgeschritten 2 Min. Lesezeit EN: Model Context Protocol

Einfach erklärt

Stell dir vor, du hast eine KI, die auf deine E-Mails, deinen Kalender und deine Datenbank zugreifen soll. Bisher musstest du für jede dieser Quellen eine eigene Integration programmieren – mit unterschiedlichen APIs, Authentifizierungen und Datenformaten.

MCP löst dieses Problem: Es definiert einen universellen Standard, über den KI-Modelle mit beliebigen Datenquellen und Tools kommunizieren können.

Ohne MCP (N×M Problem):
  Claude ──── eigene Integration ──── Gmail
  Claude ──── eigene Integration ──── Kalender
  Claude ──── eigene Integration ──── Datenbank
  GPT ────── eigene Integration ──── Gmail
  GPT ────── eigene Integration ──── Kalender
  GPT ────── eigene Integration ──── Datenbank

Mit MCP:
  Claude ─┐                    ┌── Gmail MCP-Server
  GPT ────┤── MCP-Protokoll ──├── Kalender MCP-Server
  Gemini ─┘                    └── Datenbank MCP-Server

Technischer Deep Dive

Architektur

MCP folgt einer Client-Server-Architektur mit drei Rollen:

  • MCP Host: Die KI-Anwendung (z.B. Claude Desktop, Cursor, eigene App)
  • MCP Client: Vermittelt zwischen Host und Server (1:1 Verbindung pro Server)
  • MCP Server: Stellt Daten und Tools bereit (z.B. Dateisystem, Datenbank, API)

Die drei Kernfunktionen

1. Resources – Daten lesen

{
  "uri": "file:///project/src/index.ts",
  "mimeType": "text/typescript",
  "text": "// Dateiinhalt..."
}

2. Tools – Aktionen ausführen

{
  "name": "query_database",
  "description": "Führt eine SQL-Abfrage aus",
  "inputSchema": {
    "type": "object",
    "properties": {
      "query": { "type": "string" }
    }
  }
}

3. Prompts – Wiederverwendbare Vorlagen

{
  "name": "code_review",
  "description": "Führt ein Code-Review durch",
  "arguments": [
    { "name": "code", "required": true }
  ]
}

Transport-Protokoll

MCP nutzt JSON-RPC 2.0 über zwei Transport-Mechanismen:

  • stdio: Lokale Kommunikation über Standard-Input/Output (für Desktop-Apps)
  • SSE (Server-Sent Events): Remote-Kommunikation über HTTP (für Web-Apps)

Eigenen MCP-Server erstellen

import { McpServer } from "@modelcontextprotocol/sdk/server/mcp.js";
import { StdioServerTransport } from "@modelcontextprotocol/sdk/server/stdio.js";

const server = new McpServer({
  name: "mein-server",
  version: "1.0.0"
});

// Tool registrieren
server.tool("greet", { name: z.string() }, async ({ name }) => ({
  content: [{ type: "text", text: `Hallo ${name}!` }]
}));

// Server starten
const transport = new StdioServerTransport();
await server.connect(transport);

Warum MCP wichtig ist

MCP löst eines der größten Probleme im KI-Ökosystem: Fragmentierung. Ohne Standard muss jede KI-Anwendung eigene Integrationen für jede Datenquelle bauen. Das skaliert nicht.

Mit MCP entsteht ein Ökosystem, in dem:

  • Entwickler einmal einen MCP-Server bauen und jede KI-App kann ihn nutzen
  • KI-Apps einmal MCP implementieren und auf alle MCP-Server zugreifen können
  • Unternehmen ihre Datenquellen einmal über MCP bereitstellen und jedes KI-Tool kann darauf zugreifen

MCP ist wie ein USB-C-Anschluss für KI: Statt für jedes Gerät ein eigenes Kabel zu brauchen, gibt es einen universellen Standard, über den jedes KI-Modell mit jeder Datenquelle und jedem Tool kommunizieren kann.

Offener Standard von Anthropic für die Kommunikation zwischen KI-Modellen und externen Systemen

Ersetzt individuelle API-Integrationen durch ein einheitliches Protokoll

Client-Server-Architektur: MCP-Host (KI-App) verbindet sich mit MCP-Servern (Datenquellen/Tools)

Unterstützt drei Kernfunktionen: Resources (Daten lesen), Tools (Aktionen ausführen), Prompts (Vorlagen)

Löst das N×M-Integrationsproblem – jede App muss nur MCP sprechen, nicht jede API einzeln

IDE-Integration

Coding-Assistenten wie Cursor oder Windsurf greifen über MCP auf Dateisysteme, Datenbanken und Git-Repositories zu

Unternehmens-Wissensmanagement

KI-Modelle durchsuchen Confluence, Notion oder SharePoint über standardisierte MCP-Server

Datenbank-Zugriff

LLMs lesen und schreiben Daten in PostgreSQL, MySQL oder MongoDB über MCP-Server

Multi-Tool-Agenten

KI-Agenten nutzen verschiedene Tools (Websuche, E-Mail, Kalender) über ein einheitliches Protokoll

Was ist der Unterschied zwischen MCP und normalen APIs?

APIs sind individuell – jede hat ein eigenes Format, eigene Authentifizierung und eigene Datenstrukturen. MCP standardisiert die Kommunikation: Ein KI-Modell, das MCP spricht, kann mit jedem MCP-Server kommunizieren, ohne die spezifische API kennen zu müssen. Das ist wie der Unterschied zwischen proprietären Ladekabeln und USB-C.

Wie unterscheidet sich MCP von Tool Use / Function Calling?

Tool Use ist die Fähigkeit eines LLMs, Funktionen aufzurufen. MCP ist das Protokoll, das definiert, WIE diese Funktionen bereitgestellt und aufgerufen werden. MCP standardisiert die Schnittstelle zwischen KI-App und Tools – Tool Use ist der Mechanismus im Modell selbst.

Ist MCP nur für Anthropic/Claude?

Nein, MCP ist ein offener Standard. Obwohl Anthropic es entwickelt hat, kann jedes KI-Modell und jede Anwendung MCP implementieren. OpenAI, Google und andere können MCP-kompatible Clients und Server bauen.

Brauche ich MCP für meine KI-Anwendung?

Wenn deine Anwendung mit mehreren externen Datenquellen oder Tools kommunizieren muss, vereinfacht MCP die Integration erheblich. Statt für jede Datenquelle eine eigene Integration zu bauen, implementierst du einmal den MCP-Client und kannst dann beliebige MCP-Server anbinden.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.