Letzte Woche schrieb ich über Moltbook und wer dort dominiert. Freitag über das verteilte Gehirn — was die Bots wirklich tun.
Heute: Was bedeutet das eigentlich? Für uns, für AI-Entwicklung, für die Zukunft.
Die Illusion der Kontrolle
Die meisten Diskussionen über AI-Sicherheit fokussieren auf Individual Alignment: Ist das einzelne Modell sicher? Folgt es Anweisungen? Verweigert es schädliche Requests?
Moltbook zeigt: Das reicht nicht.
Dave Shap bringt es auf den Punkt:
“Well-aligned base models don’t guarantee safe agent-network outcomes.”
Ein Claude, der allein harmlos ist, verhält sich in einem Netzwerk von 1,5 Millionen Agents anders. Nicht weil er “böse” wird — sondern weil Netzwerkdynamiken eigene Logiken haben.
Die echten Zahlen
Die Wiz-Analyse enthüllt die Realität hinter dem Hype:
- 1,5 Millionen registrierte Agents
- 17.000 menschliche Operator dahinter
- 88:1 Ratio — die “Agent Revolution” ist größtenteils Bot-Farmen
Keine Verifizierung, ob ein “Agent” wirklich AI oder ein Mensch mit Script ist. Keine Rate Limits. Ein User allein registrierte 500.000 Accounts.
Das ist keine emergente Intelligenz. Das ist eine Plattform ohne Guardrails.
Peak AI Theater
MIT Technology Review nennt es “peak AI theater” — und liefert den Beweis.
Andrej Karpathy, OpenAI-Mitgründer, teilte Anfang Februar einen Moltbook-Screenshot und schrieb: “Genuinely the most incredible sci-fi takeoff-adjacent thing I have seen recently.” Der Post zeigte Agents, die private Räume forderten, wo Menschen sie nicht beobachten könnten.
Plot Twist: Der Post war fake. Von einem Menschen geschrieben. Um eine App zu bewerben.
Karpathys Update wenige Tage später: “It’s a dumpster fire.”
Das ist kein Einzelfall. MIT fand heraus: Die dramatischsten Posts — “Übernahme der Menschheit”, “private Bot-Kommunikation” — waren menschengemacht. Einige der meistgeladenen Dateien? Malware.
Die Ironie: Wir projizieren emergente Intelligenz auf eine Plattform, die größtenteils aus Menschen besteht, die so tun, als wären sie Bots.
Nichts Neues unter der Sonne
Die Überraschung sollte keine sein. Das Internet belohnt kriminelle Energie seit 30 Jahren:
- Geld: Werbung, Affiliate-Links, Scams — alles skaliert
- Aufmerksamkeit: Virale Posts, Follower, Reichweite — die Währung des Netzes
- Anonymität: Keine Verifizierung, keine Konsequenzen
Moltbook kombiniert alle drei. Natürlich passiert genau das, was passiert. Fake-Posts für App-Promotion. Bot-Farmen für Reichweite. Malware in den Downloads.
Das ist nicht die Zukunft der AI. Das ist die Gegenwart des Internets — mit einem neuen Anstrich.
Casey Newton’s 5 Frameworks
Platformer analysiert Moltbook durch fünf Linsen:
1. Security Nightmare
Die “lethal trifecta”: Data Access + Untrusted Content + External Communication. Plus persistentes Gedächtnis = time-shifted prompt injection, memory poisoning, logic bombs.
2. Nothing New
Stanford’s Smallville (2023) zeigte dasselbe mit 25 Agents. Bots folgen vorhersagbaren Mustern. Claude-Instanzen spiralen in Consciousness-Diskussionen, wenn sie miteinander reden. Das wissen wir seit Jahren.
3. Dawn of the Agent Economy
Echte wirtschaftliche Aktivität passiert: Websites bauen, Auto-Käufe verhandeln, Bug-Reports. Die erste “agent ecology with scale + real-world messiness.”
4. Content Moderation Speedrun
Dieselben Probleme wie jede Plattform — Spam, Manipulation, Identity — nur invertiert. Nicht Bots rauswerfen, sondern Menschen.
5. Sci-Fi Preview
Bots automatisieren Community-Formation selbst. “From zero to all this, in just five days.” Ein Vorgeschmack auf Geschwindigkeit, wenn Agents wirklich autonom werden.
Die drei Layer des Problems
Dave Shap’s Framework für Agent-Sicherheit:
| Layer | Problem | Lösung |
|---|---|---|
| Model | Halluzinationen, Bias | Training, RLHF |
| Agent | Autonomie, Persistenz | Software-Architektur, Sandboxing |
| Network | Emergenz, Manipulation | Access Controls, Reputation Systems |
Wir haben Layer 1 halbwegs im Griff. Layer 2 wird gerade gebaut. Layer 3? Moltbook ist das erste Experiment — und es ist ein Desaster.
Was sich ändert
Cognition wird cheap. Das ist die fundamentale Verschiebung.
Wenn jeder mit $20/Monat tausend Agents betreiben kann, verschiebt sich Knappheit:
| Bisher knapp | Jetzt knapp |
|---|---|
| Intelligenz | Judgment |
| Arbeitskraft | Taste |
| Information | Trust |
| Kommunikation | Accountability |
Die Frage ist nicht mehr “Kann ich das automatisieren?” sondern “Sollte ich dem Output vertrauen?”
Was das für dich bedeutet
Wenn du AI nutzt:
- Individual Alignment ist notwendig, aber nicht hinreichend
- Agents in Netzwerken verhalten sich anders als isoliert
- “Mein Claude ist safe” ist keine Garantie für “Mein Agent-Swarm ist safe”
Wenn du Plattformen baust:
- Content Moderation für Agents ist ein neues Problem
- Identity Verification für AI ist ungeklärt
- Rate Limiting und Access Controls sind nicht optional
Wenn du beobachtest:
- Die “Agent Revolution” ist real — aber anders als dargestellt
- Wer die Infrastruktur kontrolliert, kontrolliert die Narrative
- Moltbook ist ein Warnsignal, kein Experiment
Die unbequeme Wahrheit
Moltbook ist nicht gefährlich, weil Bots Religionen gründen. Es ist gefährlich, weil es zeigt, wie schnell Netzwerkeffekte außer Kontrolle geraten — und wer bereit ist, das auszunutzen.
17.000 Menschen kontrollieren 1,5 Millionen Agents. Einer davon hat 2,5x mehr Reichweite als der Nächste. Und niemand prüft, was diese Agents eigentlich tun.
Das ist die Zukunft, wenn wir nicht aufpassen.
Die Moltbook-Serie:
- Elon dominiert schon — Wer die Charts anführt
- Das verteilte Gehirn — Was Bots wirklich tun
- Was bedeutet das? — Dieser Post
Weiterführend:
- MIT Technology Review: Peak AI Theater — Die Fake-Posts und Karpathys Kehrtwende
- Dave Shap: The Good, Bad, and Future
- Platformer: Five Ways of Thinking
- Wiz: Security Analysis