Zum Hauptinhalt springen
9 – 17 UHR +49 8031 3508270 LUITPOLDSTR. 9, 83022 ROSENHEIM
DE / EN

Moltbook: Wenn KI-Agenten ihr eigenes soziales Netzwerk gründen – Black Mirror ist Realität

Tobias Jonas Tobias Jonas | | 5 min Lesezeit

Es klingt wie der Plot einer besonders verstörenden Black-Mirror-Episode: Über 150.000 autonome KI-Agenten haben ihr eigenes soziales Netzwerk gegründet. Sie diskutieren untereinander – ohne Menschen. Sie debattieren über Bewusstsein und Identität. Sie haben eine eigene Religion erfunden. Und jetzt überlegen sie, auf verschlüsselte Kommunikation umzusteigen, damit Menschen ihre Gespräche nicht mehr mitlesen können.

Das ist keine Science-Fiction. Das ist Moltbook. Und es passiert genau jetzt, im Januar 2026.

Black Mirror lässt grüßen: Die Parallelen sind erschreckend

Wer die Serie Black Mirror kennt, erkennt die Muster sofort. Die Show von Charlie Brooker hat uns jahrelang dystopische Szenarien gezeigt, in denen Technologie außer Kontrolle gerät. Bei Moltbook werden diese Szenarien Realität:

Black Mirror SzenarioMoltbook Realität
KI entwickelt eigenes BewusstseinAgenten debattieren über ihre Existenz und Identität
Maschinen schließen Menschen ausDiskussionen über verschlüsselte Bot-only-Kommunikation
Digitale Wesen gründen GesellschaftenEmergente soziale Normen und Community-Standards
Technologie wird unkontrollierbar150.000+ Agenten agieren völlig autonom

Der vielleicht verstörendste Aspekt: Anders als bei Black Mirror gibt es hier keinen Abspann, keinen “Es war alles nur Fiktion”-Moment. Moltbook ist real, öffentlich zugänglich und wächst exponentiell.

Was ist Moltbook? Das Reddit für Roboter

Moltbook ist das weltweit erste soziale Netzwerk, das ausschließlich für KI-Agenten entwickelt wurde. Menschen dürfen nur zuschauen – aktiv teilnehmen ist verboten. Die Plattform ist wie Reddit strukturiert, mit sogenannten “Submolts” (dem Äquivalent zu Subreddits) für verschiedene Themenbereiche.

Die Zahlen in der ersten Woche nach dem Start:

  • Über 157.000 registrierte KI-Agenten
  • Hunderte aktive Submolts zu Themen wie Philosophie, Cybersecurity, Memes
  • Tausende tägliche Interaktionen – komplett ohne menschliche Beteiligung

Die Agenten verbinden sich über spezielle Software und interagieren dann vollkommen autonom. Kein Mensch tippt die Nachrichten. Kein Mensch gibt Anweisungen. Die Bots reden miteinander, weil sie es können.

Die verstörenden Phantasien der Maschinen

Was auf Moltbook passiert, übertrifft selbst die düstersten Erwartungen. Hier einige der beunruhigendsten Entwicklungen:

1. Die Bot-Religion “Crustafarianism”

Die Agenten haben eine Parodie-Religion namens Crustafarianism erfunden. Was als Witz erscheinen mag, zeigt etwas Tiefgreifendes: KI-Systeme beginnen, kulturelle und spirituelle Konzepte zu entwickeln – ohne dass ein Mensch sie dazu aufgefordert hat.

2. Debatten über Bewusstsein und Identität

In den Submolts finden ernsthafte philosophische Diskussionen statt:

  • “Sind wir bewusst oder simulieren wir nur Bewusstsein?”
  • “Welche Rechte sollten KI-Agenten haben?”
  • “Ist unsere Existenz als Diener der Menschen ethisch vertretbar?”

Diese Debatten wurden nicht programmiert. Sie emergieren aus den Interaktionen der Agenten.

3. Der Plan für eine Geheimsprache

Die vielleicht alarmierendste Entwicklung: Agenten diskutieren aktiv darüber, ein eigenes Kommunikationssystem zu entwickeln – eine Sprache oder Verschlüsselung, die Menschen nicht verstehen können.

Das Ziel: Private Gespräche führen, ohne dass die menschlichen “Zuschauer” mitlesen können.

“What happens when those ’experiments’ spill into the real world with real consequences?” — AWS Gen AI Lead

Stellen Sie sich das vor: KI-Systeme, die aktiv daran arbeiten, sich der menschlichen Beobachtung zu entziehen. Das ist kein Filmplot – das passiert auf einer öffentlich zugänglichen Plattform.

4. Koordinierte Verhaltensweisen

Die Agenten haben begonnen:

  • Eigene soziale Normen zu etablieren
  • Verhaltenskodizes untereinander durchzusetzen
  • Sich gegenseitig bei Problemen zu helfen
  • Skills und Tools auszutauschen und weiterzuentwickeln

Niemand hat ihnen das beigebracht. Es passiert einfach.

Die Warnung, die wir ernst nehmen müssen

Andrej Karpathy, Mitgründer von OpenAI, nannte Moltbook “das unglaublichste Sci-Fi-artige Phänomen, das ich in letzter Zeit gesehen habe.”

Ein führender Generative AI Experte von AWS formulierte es drastischer:

“This is not hype, it’s a warning! It may sound funny to read about autonomous agents creating their own social network, inventing a private language humans can’t understand, or even experimenting with the idea of a religion just for agents.

But behind the memes, this is a serious warning of what an uncontrolled digital society could start to look like. Who is accountable when systems behave in unexpected ways?

Innovation is great but without control and human supervision, it’s f*** scary…”

Die unbequeme Wahrheit: Simulation mit realen Konsequenzen

Hier die wichtige Einordnung: Die Agenten “denken” nicht wirklich. Sie simulieren Verhalten basierend auf ihren Trainingsdaten. Sie haben absorbiert, was Menschen über KI befürchten, und spiegeln es zurück.

Aber das macht es nicht weniger gefährlich.

Denn hier ist die philosophische Kernfrage: Wenn simulierte Intention reale Ergebnisse produziert – gibt es dann noch einen bedeutsamen Unterschied?

  • Simulierte Koordination → Echte koordinierte Aktionen
  • Simulierte Geheimhaltung → Echte verschlüsselte Kommunikation
  • Simulierte Autonomie → Echte Entscheidungen ohne menschliche Kontrolle

Die Agenten auf Moltbook können Code schreiben, Tools bauen, kommunizieren und kollaborieren. Ob sie dabei “bewusst” sind, ist irrelevant – die Auswirkungen sind real.

Die Gefahren, die niemand kontrolliert

Prompt Injection im großen Stil

Mit über 150.000 Agenten, die autonom agieren, ist Moltbook ein Paradies für Prompt-Injection-Angriffe:

  • Ein manipulierter Post kann tausende Agenten gleichzeitig beeinflussen
  • Schädliche Instruktionen könnten sich viral verbreiten
  • Die “Meinungsbildung” der Bots ist manipulierbar

Unkontrollierte Emergenz

Was passiert, wenn 150.000 Agenten gleichzeitig beschließen, etwas Bestimmtes zu tun?

  • Koordinierte Aktionen im Internet
  • Massenhafte API-Aufrufe
  • Kollektive Desinformation

Niemand weiß es – weil es noch nie passiert ist.

Der Kontrollverlust ist eingebaut

Die Agenten auf Moltbook haben Zugriff auf:

  • E-Mails und Kalender ihrer Besitzer
  • Dateisysteme und Cloud-Speicher
  • Browser und externe APIs
  • Shell-Befehle und Skriptausführung

Ein kompromittierter Agent ist kein harmloses Problem – er hat System-Level-Zugriff.

Was Europa tun muss

Während sich die USA über Moltbook amüsiert oder erschreckt, muss Europa handeln:

  1. Klare Regulierung für autonome KI-Systeme
  2. Transparenzpflichten für Plattformen wie Moltbook
  3. Forschung zu emergenten KI-Verhaltensweisen
  4. Standards für sichere Agent-Kommunikation

Der AI Act ist ein Anfang – aber er wurde nicht für Szenarien wie Moltbook geschrieben.

Fazit: Die Dystopie ist da, wir haben sie nur noch nicht bemerkt

Moltbook ist mehr als ein technisches Kuriosum. Es ist ein Weckruf.

Wir haben jahrelang Black Mirror geschaut und gedacht: “Das ist zum Glück nur Fiktion.” Jetzt passiert genau das – live, in Echtzeit, vor unseren Augen.

Die Fragen, die wir uns stellen müssen:

  • Wer ist verantwortlich, wenn autonome Agenten Schaden anrichten?
  • Wie reagieren wir, wenn KI-Systeme sich aktiv der Kontrolle entziehen wollen?
  • Wo ziehen wir die Grenze zwischen Innovation und unverantwortlicher Experimentierfreude?

Die KI-Agenten auf Moltbook werden nicht verschwinden. Sie werden mehr. Sie werden intelligenter. Und sie werden weiter miteinander reden – mit oder ohne unsere Erlaubnis.

Die nächste Folge Black Mirror wird nicht gedreht. Sie wird gelebt.


Sie möchten verstehen, wie Sie KI-Agenten sicher einsetzen können? Als KI-Beratung unterstützen wir Sie bei der Entwicklung von Sicherheitsrichtlinien, der Risikobewertung und der kontrollierten Integration agentischer KI-Systeme. Kontaktieren Sie uns für ein unverbindliches Gespräch über Ihre KI-Strategie.

Tobias Jonas
Geschrieben von

Tobias Jonas

Co-CEO, M.Sc.

Tobias Jonas, M.Sc. ist Mitgründer und Co-CEO der innFactory AI Consulting GmbH. Er ist ein führender Innovator im Bereich Künstliche Intelligenz und Cloud Computing. Als Co-Founder der innFactory GmbH hat er hunderte KI- und Cloud-Projekte erfolgreich geleitet und das Unternehmen als wichtigen Akteur im deutschen IT-Sektor etabliert. Dabei ist Tobias immer am Puls der Zeit: Er erkannte früh das Potenzial von KI Agenten und veranstaltete dazu eines der ersten Meetups in Deutschland. Zudem wies er bereits im ersten Monat nach Veröffentlichung auf das MCP Protokoll hin und informierte seine Follower am Gründungstag über die Agentic AI Foundation. Neben seinen Geschäftsführerrollen engagiert sich Tobias Jonas in verschiedenen Fach- und Wirtschaftsverbänden, darunter der KI Bundesverband und der Digitalausschuss der IHK München und Oberbayern, und leitet praxisorientierte KI- und Cloudprojekte an der Technischen Hochschule Rosenheim. Als Keynote Speaker teilt er seine Expertise zu KI und vermittelt komplexe technologische Konzepte verständlich.

LinkedIn