Context Engineering: Warum "guter Prompt" nicht mehr reicht
Prompt Engineering war gestern. Wer KI wirklich gut nutzen will, muss einen Schritt weiter denken. Context Engineering ist der Ansatz, der den Unterschied macht. Und er ist näher an unserem Alltag als man denkt.
Es gab eine Zeit, da war "Prompt Engineering" das große Buzzword. Wer wusste, wie man KI richtig anspricht, hatte einen echten Vorteil. Diese Zeit ist noch nicht vorbei – aber sie bekommt gerade Konkurrenz von einem Begriff, der tiefer geht: Context Engineering.
Was steckt dahinter? Und warum sollte dich das als Marketing-Profi interessieren?
Der Prompt ist nur ein Teil der Geschichte
Stell dir vor, du stellst einem neuen Mitarbeiter eine Frage. Was er dir antwortet, hängt nicht nur von deiner Frage ab. Es hängt davon ab, was er vorher von dir gehört hat. Was er über dein Unternehmen weiß. Welche Unterlagen ihm vorliegen. Ob er schon mal in einer ähnlichen Situation war.
Genauso funktioniert KI.
Ein Sprachmodell wie Claude oder ChatGPT bekommt bei jeder Anfrage nicht nur deinen Prompt zu sehen. Es bekommt einen ganzen Informationsrahmen. Diesen Rahmen nennt man Kontext. Und Context Engineering ist das bewusste Gestalten dieses Rahmens.
Kurz gesagt: Prompt Engineering fragt Was schreibe ich? Context Engineering fragt Was weiß das Modell, wenn es antwortet?
Was in den Kontext gehört
Der Kontext eines Sprachmodells kann viele Dinge enthalten:
- Systemanweisungen (z.B. "Du bist ein erfahrener Marketing-Texter")
- Den bisherigen Gesprächsverlauf
- Dokumente, die du mitgegeben hast
- Beispiele, wie eine gute Antwort aussehen soll
- Informationen über die Zielgruppe, das Produkt, den Ton
Gutes Context Engineering bedeutet: Du gibst dem Modell genau die Informationen, die es braucht. Nicht zu wenig, nicht zu viel. Du gestaltest den Rahmen so, dass die KI in der richtigen Rolle, mit dem richtigen Wissen und mit der richtigen Erwartung antwortet.
Ein konkretes Beispiel aus dem Marketing
Nehmen wir an, du willst einen LinkedIn-Post schreiben lassen.
Schwacher Kontext: "Schreib mir einen LinkedIn-Post über unser neues Produkt."
Das Ergebnis: generisch, beliebig, klingt nach KI.
Guter Kontext: Du gibst dem Modell vorab: die wichtigsten drei Produkteigenschaften, zwei Sätze zur Zielgruppe, einen Beispiel-Post, der gut bei euch funktioniert hat, und den gewünschten Ton (z.B. sachlich-nahbar, kein Werbesprech).
Das Ergebnis: ein Post, der klingt wie von jemandem, der das Produkt wirklich kennt.
Der Unterschied ist nicht der Prompt. Der Unterschied ist der Kontext.
Das ist unser Feld
Context Engineering klingt zunächst nach Entwickler-Thema. Ist es aber nicht. Es ist im Kern eine Kommunikationsaufgabe.
Wer schon immer Briefings schreibt, Tonalitätsvorgaben macht und Zielgruppenbeschreibungen formuliert, betreibt im Grunde schon Context Engineering. Nur heißt der Empfänger jetzt nicht mehr "Agentur" oder "Praktikant", sondern "Sprachmodell".
Der Schritt, den es braucht: Nicht mehr nur an den einzelnen Prompt denken. Sondern an den gesamten Rahmen. Was muss das Modell wissen, um wirklich gute Arbeit zu leisten?
Fazit
Context Engineering ist keine Raketenwissenschaft. Es ist das konsequente Weiterdenken von etwas, das wir als Kommunikationsprofis ohnehin können: den richtigen Rahmen setzen, damit gute Arbeit entstehen kann. Wer das versteht, arbeitet mit KI anders als die meisten.