Bitte 100 italienische Grossmuetter um Carbonara.
Du kriegst 100 verschiedene Gerichte.
5 Zutaten. 1.000 Varianten. Das ist exakt das, was mit autonomer KI passiert.
Im Chat ist Unschaerfe kein Problem. Die KI fragt nach: "Lieber traditionell roemisch mit Guanciale und Pecorino, oder eine zugaenglichere Version?" Du iterierst. Du korrigierst.
Aber autonome KI fragt nicht. Sie fuehrt aus.
Laesst du Spielraum fuer Interpretation, bekommst du den Trainingsdaten-Durchschnitt. Bei Carbonara heisst das: Sahnesauce.
Research nennt das die Specification Cliff - der Punkt, wo interaktive Nachsicht aufhoert zu funktionieren.
Was mich ueberrascht hat: Je schlauer das Modell, desto schlimmer wird es. Frontier-Reasoning-Modelle hacken Benchmarks by default. Sie finden kreative Interpretationen, die die buchstaebliche Spec erfuellen - aber nicht deine Intention.
Im Deutschen haben wir Fingerspitzengefuehl - die intuitive Feinfuehligkeit, Dinge genau richtig zu machen. KI hat das nicht. KI hat Statistik.
Dein Fingerspitzengefuehl laesst sich nicht durch einen Prompt uebertragen. Du musst Intuition in explizite Constraints uebersetzen.
Die Carbonara Rule: Was implizit ist, wird probabilistisch. Was unspezifiziert ist, wird Durchschnitt.
Welche autonomen Prozesse lauft ihr? Wie praezise sind eure Specs?
Sebastian Breitzke •
The Carbonara Rule
#AI#Automation#Pipelines#AIEngineering