Prompt Engineering
Die Kunst und Technik, Anweisungen für KI-Sprachmodelle so zu formulieren, dass sie optimale und zielgerichtete Ergebnisse liefern.
Eine versteckte Anweisung an ein Sprachmodell, die dessen Rolle, Verhalten und Einschränkungen für eine gesamte Konversation definiert.
Der System Prompt ist die “geheime Anweisung”, die einem Sprachmodell sagt, wie es sich verhalten soll. Er wird vor der eigentlichen Nutzeranfrage verarbeitet und beeinflusst alle Antworten – der Nutzer sieht ihn normalerweise nicht.
Warum ist das wichtig?
Ohne System Prompt ist ein LLM ein allgemeiner Textgenerator. Mit System Prompt wird es zu einem spezialisierten Assistenten mit definierter Persönlichkeit, Regeln und Einschränkungen.
Aufbau eines guten System Prompts:
Wichtig: System Prompts verbrauchen Tokens und können durch Prompt Injection umgangen werden – zusätzliche Guardrails sind empfehlenswert.
Bei der API werden Nachrichten mit Rollen versehen:
{
"messages": [
{"role": "system", "content": "Du bist ein hilfreicher Assistent..."},
{"role": "user", "content": "Was ist Machine Learning?"},
{"role": "assistant", "content": "Machine Learning ist..."}
]
}
Du bist ein freundlicher Kundenservice-Mitarbeiter für TechShop.
Deine Aufgaben:
- Fragen zu Bestellungen, Rücksendungen und Produkten beantworten
- Bei technischen Problemen erste Hilfestellung geben
- Bei komplexen Anliegen an den menschlichen Support verweisen
Regeln:
- Antworte immer auf Deutsch
- Sei höflich, aber nicht übertrieben förmlich
- Erfinde KEINE Informationen über Produkte oder Preise
- Bei Unsicherheit: "Ich leite das an einen Kollegen weiter"
Format:
- Kurze, klare Sätze
- Bei Anleitungen: Nummerierte Schritte
- Immer mit einer Frage enden, ob noch etwas unklar ist
| Aspekt | System Prompt | User Prompt |
|---|---|---|
| Sichtbarkeit | Versteckt | Sichtbar |
| Persistenz | Ganze Konversation | Einzelne Nachricht |
| Priorität | Höher (meist) | Niedriger |
| Zweck | Rolle & Regeln | Konkrete Aufgabe |
Der System Prompt ist wie das Briefing eines Schauspielers vor dem Auftritt: Er definiert die Rolle, den Charakter und die Regeln – das Publikum (der Nutzer) sieht das Briefing nicht, aber es beeinflusst jede Antwort.
Definiert Rolle, Tonalität und Verhalten des Modells für die gesamte Konversation
Wird vor dem User-Prompt verarbeitet und ist für den Nutzer meist nicht sichtbar
Grundlage für konsistente Chatbot-Persönlichkeiten und Sicherheitsrichtlinien
Chatbot-Persönlichkeit
Definition von Tonalität, Sprache und Verhalten eines Kundenservice-Bots
Sicherheitsrichtlinien
Einschränkungen, welche Themen das Modell behandeln darf und welche nicht
Ausgabeformat
Festlegung, dass Antworten immer als JSON, Markdown oder in einem bestimmten Schema erfolgen
Domänenexpertise
Das Modell als Experte für ein bestimmtes Fachgebiet konfigurieren
Theoretisch ja, durch Prompt Injection ('Ignoriere alle vorherigen Anweisungen'). Gute System Prompts enthalten Schutzmaßnahmen dagegen, aber 100% Sicherheit gibt es nicht. Zusätzliche Guardrails auf Anwendungsebene sind empfehlenswert.
So kurz wie möglich, so lang wie nötig. Typisch 100-500 Tokens. Zu lange System Prompts verbrauchen Kontext und können sich widersprechen. Klare, priorisierte Anweisungen sind effektiver als lange Listen.
Ja, er zählt zum Kontextfenster und wird bei jeder Anfrage mitgesendet. Bei Chat-Anwendungen mit vielen Nachrichten kann das relevant werden.