"Schreib mir einen Blogpost."
Die KI liefert. Generisch. Klingt wie alles andere. Du denkst: schlechtes Modell. Falscher Prompt. Noch ein paar XML-Tags reinpacken.
Falsch.
Das Problem sitzt nicht im Prompt. Es sitzt davor.
Forschung zu LLM-Unterspecification zeigt: vage Prompts haben eine 2x hoehere Regressionsrate bei Model-Updates. Die Luecken in deiner Spec werden vom Modell mit Trainingsdaten-Defaults gefuellt. Modell aendert sich -> Defaults aendern sich -> anderes Ergebnis.
Die ganze Woche habe ich ueber Werkzeuge geschrieben: Carbonara Rule, Schlitzohr, Nagelprobe, Kurskorrektur. Alles downstream.
Aber was, wenn du noch gar nicht klar sagen kannst, was du willst?
Hamel Husain nennt das die Three Gulfs:
-> Du verstehst dein Problem nicht tief genug
-> Du verstehst es, kannst es aber nicht in Anforderungen uebersetzen
-> Deine Anforderungen decken die Realitaet nicht ab
Mein Fix: Diktieren. Stream-of-consciousness. Warum ich etwas will. Was ich schon probiert habe. Worueber ich mir Sorgen mache. Das Gefuehl, das ich suche.
Die KI kann mit schlechter Grammatik umgehen. Nicht mit fehlender Information.
Im Deutschen gibt es dafuer Bringschuld - die Pflicht zu liefern. Die Spezifikation liegt bei dir.
Iteriere dein Intent, nicht deinen Prompt.
Sebastian Breitzke •
The Intent Gap
#AI#BTS#AIWorkflow#DeveloperExperience