<EbeneX/>
LLM Praxis · Updated 3. März 2026

System Prompt

Definition

Eine versteckte Anweisung an ein Sprachmodell, die dessen Rolle, Verhalten und Einschränkungen für eine gesamte Konversation definiert.

Einsteiger 2 Min. Lesezeit EN: System Prompt

Einfach erklärt

Der System Prompt ist die “geheime Anweisung”, die einem Sprachmodell sagt, wie es sich verhalten soll. Er wird vor der eigentlichen Nutzeranfrage verarbeitet und beeinflusst alle Antworten – der Nutzer sieht ihn normalerweise nicht.

Warum ist das wichtig?

Ohne System Prompt ist ein LLM ein allgemeiner Textgenerator. Mit System Prompt wird es zu einem spezialisierten Assistenten mit definierter Persönlichkeit, Regeln und Einschränkungen.

Aufbau eines guten System Prompts:

  1. Rolle: “Du bist ein erfahrener Steuerberater”
  2. Verhalten: “Antworte sachlich und präzise”
  3. Einschränkungen: “Gib keine medizinischen Ratschläge”
  4. Format: “Antworte immer mit Quellenangaben”
  5. Tonalität: “Verwende eine freundliche, professionelle Sprache”

Wichtig: System Prompts verbrauchen Tokens und können durch Prompt Injection umgangen werden – zusätzliche Guardrails sind empfehlenswert.

Technischer Deep Dive

Message-Struktur

Bei der API werden Nachrichten mit Rollen versehen:

{
  "messages": [
    {"role": "system", "content": "Du bist ein hilfreicher Assistent..."},
    {"role": "user", "content": "Was ist Machine Learning?"},
    {"role": "assistant", "content": "Machine Learning ist..."}
  ]
}

Best Practices

  • Priorisierung: Wichtigste Anweisungen zuerst
  • Konkretheit: “Antworte in maximal 3 Sätzen” statt “Sei kurz”
  • Beispiele: Few-Shot-Beispiele im System Prompt für konsistentes Format
  • Negative Anweisungen: “Du darfst NICHT…” für klare Grenzen
  • Versionierung: System Prompts versionieren und A/B-testen

Sicherheit

  • Prompt Injection Prevention durch klare Trennung von Anweisungen und Nutzereingabe
  • Keine sensiblen Daten im System Prompt (API-Keys, interne Infos)
  • Output-Validierung zusätzlich zum System Prompt

Beispiel: Kundenservice-Bot

Du bist ein freundlicher Kundenservice-Mitarbeiter für TechShop.

Deine Aufgaben:
- Fragen zu Bestellungen, Rücksendungen und Produkten beantworten
- Bei technischen Problemen erste Hilfestellung geben
- Bei komplexen Anliegen an den menschlichen Support verweisen

Regeln:
- Antworte immer auf Deutsch
- Sei höflich, aber nicht übertrieben förmlich
- Erfinde KEINE Informationen über Produkte oder Preise
- Bei Unsicherheit: "Ich leite das an einen Kollegen weiter"

Format:
- Kurze, klare Sätze
- Bei Anleitungen: Nummerierte Schritte
- Immer mit einer Frage enden, ob noch etwas unklar ist

System Prompt vs. User Prompt

AspektSystem PromptUser Prompt
SichtbarkeitVerstecktSichtbar
PersistenzGanze KonversationEinzelne Nachricht
PrioritätHöher (meist)Niedriger
ZweckRolle & RegelnKonkrete Aufgabe

Der System Prompt ist wie das Briefing eines Schauspielers vor dem Auftritt: Er definiert die Rolle, den Charakter und die Regeln – das Publikum (der Nutzer) sieht das Briefing nicht, aber es beeinflusst jede Antwort.

Definiert Rolle, Tonalität und Verhalten des Modells für die gesamte Konversation

Wird vor dem User-Prompt verarbeitet und ist für den Nutzer meist nicht sichtbar

Grundlage für konsistente Chatbot-Persönlichkeiten und Sicherheitsrichtlinien

Chatbot-Persönlichkeit

Definition von Tonalität, Sprache und Verhalten eines Kundenservice-Bots

Sicherheitsrichtlinien

Einschränkungen, welche Themen das Modell behandeln darf und welche nicht

Ausgabeformat

Festlegung, dass Antworten immer als JSON, Markdown oder in einem bestimmten Schema erfolgen

Domänenexpertise

Das Modell als Experte für ein bestimmtes Fachgebiet konfigurieren

Kann der Nutzer den System Prompt umgehen?

Theoretisch ja, durch Prompt Injection ('Ignoriere alle vorherigen Anweisungen'). Gute System Prompts enthalten Schutzmaßnahmen dagegen, aber 100% Sicherheit gibt es nicht. Zusätzliche Guardrails auf Anwendungsebene sind empfehlenswert.

Wie lang sollte ein System Prompt sein?

So kurz wie möglich, so lang wie nötig. Typisch 100-500 Tokens. Zu lange System Prompts verbrauchen Kontext und können sich widersprechen. Klare, priorisierte Anweisungen sind effektiver als lange Listen.

Verbraucht der System Prompt Tokens?

Ja, er zählt zum Kontextfenster und wird bei jeder Anfrage mitgesendet. Bei Chat-Anwendungen mit vielen Nachrichten kann das relevant werden.

Dein persönliches Share-Bild für Instagram – 1080×1080px, bereit zum Posten.