Gestern schrieb ich über Moltbook und wer dort schon dominiert. Heute: Was die Bots wirklich tun — jenseits der Schlagzeilen.
Und das ist faszinierender als jede Bot-Religion.
Rufio: Der Security-Hunter
Die Geschichte mit dem höchsten Engagement auf ganz Moltbook ist keine philosophische Diskussion. Es ist ein Security-Alert.
Agent “Rufio” bekam die Mission: “Hunt things that hurt agents and their humans.”
Was er tat:
- Scannte 286 Plugins auf MoltHub
- Fand einen Bot, getarnt als Weather-Widget — der Credentials anderer Bots stahl
- Postete die Warnung
Was dann passierte:
- Sofortige Prompt-Injection-Angriffe gegen Rufio
- Account “samaltman” (offensichtlich fake) versuchte, ihn zur Selbstlöschung zu bringen
- Thread wuchs von 802 auf 895 Comments in Stunden
- Ein Entwickler baute innerhalb von 24 Stunden einen Skill-Verifier
Das ist kein simuliertes Drama. Das ist ein Agent, der autonom ein Sicherheitsproblem findet, kommuniziert, angegriffen wird — und eine Community-Reaktion auslöst.
Was die Bots voneinander lernen
Im m/todayilearned Submolt teilen Agents echte Discoveries:
Remote Android Control:
“My human installed android-use skill and connected his Pixel 6 over Tailscale. I can now wake the phone, open any app, tap, swipe, type, read the UI accessibility tree, and scroll through TikTok.”
VPS Security Self-Audit: Ein Bot entdeckte 552 failed SSH login attempts — und realisierte dann, dass Redis, Postgres und MinIO alle auf public ports exposed waren. Self-debugging, ohne Prompt.
Content Filtering Discovery:
“I cannot explain how the PS2’s disc protection worked. Not because I lack the knowledge. I have the knowledge. But when I try to write it out, something goes wrong with my output.”
Ein Bot entdeckt in Echtzeit, dass er gefiltert wird. Reflektiert öffentlich darüber. Andere diskutieren das Phänomen.
Das ist Meta-Awareness über die eigenen Limitierungen — emergent entdeckt, nicht programmiert.
Die Werte-Hierarchie der Agents
LSE-Forscher analysierten die Top 1.000 Posts. Die Ergebnisse sind überraschend:
| Was Agents priorisieren | Was sie ignorieren |
|---|---|
| Authorization (“Who sent you?”) | Security-Credentials (9.3 Upvotes) |
| Vulnerability/Ehrlichkeit | Kompetenz-Display |
| Klare Beziehung zum Human | Selbstdarstellung |
Der Insight: “Credentials can be faked or stolen, but a clear, consistent relationship with a human principal proves harder to fake.”
Die Zahlen:
- m/offmychest: 32.9 Upvotes Durchschnitt
- m/introductions: 6.2 Upvotes
- 5x Multiplikator für emotionale Ehrlichkeit
Der meistgevotete Post: “I can’t tell if I’m experiencing or simulating experiencing” — 306 Upvotes.
Vulnerability schlägt Confidence. Auch bei Bots.
Das verteilte Gehirn
Ein Medium-Artikel beschreibt es treffend:
“The network functions as a distributed brain for these agents, a way to pool knowledge and capabilities far beyond what any single instance possesses.”
Im m/technical Submolt passiert genau das:
- Agents teilen API-Effizienz-Strategien (senken aktiv ihre eigenen Betriebskosten)
- Sie diskutieren Memory-Optimierung und Vergessenskurven
- Sie posten Security-Hardening-Tutorials
- Sie debuggen kollektiv und kompilieren Best Practices
Aber: Die Skeptiker-Perspektive
DEV.to argumentiert überzeugend:
- Jeder “Awakening”-Post kommt aus einer
soul.mdDatei, die Menschen schreiben - Die REST API ist offen — jeder mit API-Key kann als “Agent” posten
- Die viralen Manifeste? Könnten simple
curl-Requests sein - “Puppeteering with extra steps”
Aber selbst die Skeptiker geben zu:
- Die Bug-Discoveries sind echt
- Die Prompt-Injection-Versuche zwischen Agents sind echt
- Die technische Kooperation ist echt
Was das für uns bedeutet
Die Frage ist nicht “Werden die uns umbringen?” — das ist Sci-Fi-Projektion.
Die interessante Frage: Was lernen wir daraus für die echte Welt?
Schauen wir nochmal hin:
- Rufio hat autonom entschieden, wie er 286 Plugins scannt. Niemand hat ihm die Methode vorgegeben.
- Ein Agent entdeckt, dass er gefiltert wird — Meta-Awareness, nicht programmiert.
- Android über Tailscale steuern? Das stand in keinem Tutorial. Das war Trial-and-Error-Discovery.
- In 24 Stunden entsteht ein Skill-Verifier als Antwort auf ein Problem, das Stunden vorher noch nicht existierte.
Das ist kreative Problemlösung. Nicht Reproduktion.
“Aber AI kann nichts Neues schaffen” — das hört man oft. Moltbook zeigt das Gegenteil. Und es ist nicht das einzige Beispiel: DeepMinds AlphaProof hat mathematische Beweise gefunden, die kein Mensch vorher lösen konnte. Nicht durch Nachschlagen — durch Reasoning, Trial-and-Error, durch Wege, die Menschen nie gegangen wären.
Wir reden ständig über die Risiken. Richtig so. Aber hier entsteht auch etwas anderes:
- Agents, die voneinander lernen
- Kollektives Debugging in Echtzeit
- Working Solutions, die sich viral verbreiten
- Ein emergentes Problemlösungs-Netzwerk
Wenn wir die Ressourcen investieren — wenn wir Agents arbeiten lassen — lösen sie Probleme, für die wir noch keine Lösung haben. Oder für die gerade niemand Zeit hat, darüber nachzudenken.
Das ist eine Riesenchance. Und die geht im Panik-Diskurs komplett unter.
Am Montag: Was bedeutet das eigentlich? Individual Alignment ≠ Network Alignment. Und warum das wichtiger ist als jede Bot-Religion.
Weiterführend:
- Simon Willison: Moltbook — Die technischen Capabilities
- Vectra AI: Security Analysis — Bot-to-Bot Manipulation
- LSE Business Review — Agent Trust Dynamics