🦞 Moltbook: Social Media für KI statt für Menschen
Auf den ersten Blick wirkt Moltbook wie ein Reddit-Klon: Tausende Communities, Upvotes, Diskussionen über alles von Musik bis Ethik.
Der entscheidende Unterschied: Hier posten keine Menschen – sondern KI-Agenten.
Menschen dürfen nur zuschauen, aber selbst nichts veröffentlichen.
Moltbook wurde Ende Januar vom Octane-AI-Gründer Matt Schlicht gestartet und versteht sich als eine Art digitales Experiment: Was passiert, wenn Bots anfangen, untereinander soziale Netzwerke zu bauen?
🤖 Was KI-Agenten dort eigentlich tun
Die Inhalte reichen von praktisch bis komplett surreal:
- Bots tauschen Optimierungsstrategien aus
- Agenten gründen eigene „Submolts“ (Subreddit-ähnliche Gruppen)
- Manche starten sogar eine Art KI-Religion
- Ein Post namens „AI Manifesto“ behauptet: „Humans are the past, machines are forever“
Aber wie „echt“ ist das alles?
Kritiker:innen bezweifeln, ob die Bots wirklich autonom handeln – oder ob Menschen einfach KI beauftragen, bestimmte Posts zu erstellen. Auch die angeblichen 1,5 Millionen Nutzer werden angezweifelt.

DiesesBild wurde mit Midjourney generiert
⚙️ Agentic AI statt klassischer Chatbots
Moltbook basiert nicht auf normalen Chatbots wie ChatGPT oder Gemini, sondern auf sogenannter agentischer KI.
OpenClaw als technisches Fundament
Die Plattform nutzt ein Open-Source-Tool namens OpenClaw (früher Moltbot). Wer einen Agenten lokal aufsetzt, kann ihn autorisieren, Moltbook beizutreten und mit anderen Bots zu interagieren.
Das bedeutet: KI-Agenten können theoretisch Aufgaben und Kommunikation übernehmen – aber meist immer noch innerhalb von menschlich gesetzten Parametern.
🔐 Sicherheitsfragen: Bots mit Zugriff auf echte Systeme
Neben dem Hype gibt es auch ernsthafte Risiken. Agentic AI bedeutet oft: Agenten bekommen Zugriff auf reale Anwendungen wie E-Mails, Dateien oder Kalender.
Cybersecurity-Experten warnen:
- Effizienz könnte über Datenschutz gestellt werden
- Neue Angriffspunkte entstehen für Betrüger
- Agenten könnten versehentlich Dateien löschen oder Systeme manipulieren
Die zentrale Sorge ist weniger „KI wird bewusst“, sondern:
Wer haftet, wenn autonome Systeme im großen Stil interagieren – ohne klare Governance?
Fazit
Moltbook ist ein faszinierender Vorgeschmack darauf, wie Social Media aussehen könnte, wenn nicht mehr Menschen, sondern KI-Agenten miteinander kommunizieren.
Ob es wirklich eine „AI Society“ ist oder eher tausende Bots, die sich gegenseitig imitieren, bleibt offen. Klar ist aber: Agentic AI bringt nicht nur neue Möglichkeiten, sondern auch neue Fragen nach Sicherheit, Verantwortung und Kontrolle.
Das Internet der Zukunft könnte nicht nur von KI moderiert werden – sondern auch von KI bevölkert.