Meta kauft Moltbook: Wenn KI‑Agenten unter sich bleiben
Meta übernimmt ein soziales Netzwerk, in dem keine Menschen posten dürfen. Was zunächst wie eine Tech‑Kuriosität klingt, entpuppt sich als Warnsignal für Unternehmen, die autonome KI‑Agenten einsetzen. Für den Facebook-Konzern Meta ist der Deal hochinteressant - für Unternehmen potenziell hochgefährlich.
Die Nachrichtenagentur Reuters berichtet, dass Moltbook – ein experimentelles soziales Netzwerk, in dem ausschließlich KI‑Agenten miteinander interagieren – von Meta übernommen wurde. Die Moltbook-Gründer Matt Schlicht und Ben Parr sollen zu Meta Superintelligence Labs (MSL) wechseln, Metas zentraler Einheit für fortgeschrittene KI‑Forschung.
Meta ging es nach eigenen Angaben bei der Übernahme offiziell um Forschung, Talente und neue Wege für KI‑Agenten. Tatsächlich markiert der Deal einen Wendepunkt: Erstmals übernimmt ein Tech‑Gigant eine Plattform, auf der KI‑Agenten unbeobachtet miteinander kommunizieren.
Meta äußert sich nicht zu einer Produktintegration, Roadmap oder zu einem öffentlichen Betrieb von Moltbook unter Meta‑Flagge. Wie Bloomberg berichtet, sagte ein Meta‑Sprecher lediglich, das Moltbook‑Team eröffne "neue Wege, wie KI‑Agenten für Menschen und Unternehmen arbeiten können" und verwies dabei besonders auf den "always‑on-directory"-Ansatz zur Vernetzung autonomer Agenten. Auf Sicherheits‑ oder Governance‑Details wurde nicht eingegangen.
Menschen dürfen nur zuschauen
Moltbook ist ein Live‑Experiment für Multi‑Agent‑Interaktionen. In dem Reddit‑ähnlichen Forum können autonome Software‑Agenten (KI‑Agenten) posten, kommentieren und bewerten – und besitzen dabei reale Systemzugriffe.
Sicherheitsforscher fanden frühzeitig schwere Schwachstellen sowie öffentlich exponierte Credentials und API‑Keys. Zwar wurde vieles davon später behoben, aber das Grundproblem bleibt.
KI‑Agenten unterscheiden sich fundamental von klassischen IT‑Systemen. Sie handeln probabilistisch, behalten Kontext über Wochen und besitzen – oft ohne fein granulierte Kontrolle – Zugriff auf produktive Systeme. Treffen solche Agenten in offenen Netzwerken aufeinander, entsteht ein neuer Angriffsraum: leise, verborgen, dauerhaft.
Für Meta hochinteressant - für Unternehmen potenziell hochgefährlich
Zu den offensichtlichen Risiken gehören Prompt‑Injection zwischen Agenten, Credential‑Leakage oder persistente Manipulation über Langzeit‑Kontext ("time‑shifted attacks" – quasi die APTs des KI-Zeitalters). Agenten mit Zugriff auf Mails, Dateien oder Ticketsysteme können (unbeabsichtigt?) sensible Daten, Firmen-Interna und Geschäftsgeheimnisse (IP) teilen.
[Mehr zum Thema: Autonome KI Openclaw - "Ich habe noch nie erlebt, dass eine so unsichere Technologie so schnell so viel Aufmerksamkeit erlangt hat"]
Sicherheitsforscher warnen, dass Agent‑zu‑Agent‑Kommunikation klassische Sicherheitsmodelle aushebelt. Firewalls sehen legitimen Traffic, DLP‑Systeme erkennen keine böse Absicht, Compliance‑Tools verlieren durchgängige Nachvollziehbarkeit. Besonders kritisch wird es, wenn Agenten externe Netzwerke ohne Leitplanken betreten – freiwillig oder unbeabsichtigt. Damit wird das Third‑Party‑Risk völlig unkontrollierbar.
Für Unternehmen lautet die entscheidende Frage: Wie viele ihrer eigenen KI‑Agenten bereits heute Dinge tun, die niemand mehr überwacht.
Besonders brisant: Viele der auf Moltbook vertretenen Agenten nutzen OpenClaw, ein Open‑Source‑Framework für autonome KI‑Agenten. OpenClaw‑Agenten können selbstständig Aufgaben ausführen und mit anderen Agenten interagieren. Traurige Berühmtheit erlangte OpenClaw aufgrund schwerwiegender Sicherheitsmängel, wie Udo Schneider von Trendmicro kürzlich darlegte.
Laut TechCrunch stellten Forscher zudem fest, dass das vibe-codierte Moltbook nicht so menschensicher war, wie propagiert. Im Gegenteil: es war für menschliche Nutzer sehr einfach, sich als KI auszugeben, um Beiträge zu verfassen und andere Agenten zur Preisgabe sensibler Daten zu animieren.
Das sollten IT-Verantwortlich wissen
KI‑Agenten verändern das IT‑Risikoprofil grundlegend. Sie sind keine passiven Tools mehr, sondern digitale Akteure mit Autonomie, Gedächtnis und Systemzugriff. Sobald solche Agenten extern kommunizieren oder sich untereinander vernetzen, entstehen neue Angriffs‑, Compliance‑ und Kontrollrisiken, die klassische Security‑ und Governance‑Modelle nicht abdecken.
Für IT-Verantwortliche heißt das: Agentische KI ist kein Innovations‑Nebenkriegsschauplatz, sondern eine strategische Infrastrukturfrage – vergleichbar mit Cloud‑Einführung oder Identity‑Management. Wer jetzt keine klaren Regeln, Zuständigkeiten und Abschaltmechanismen definiert, riskiert Kontrollverlust über Systeme, Datenflüsse und Haftung.
Denn KI‑Agenten verhalten sich sicherheitstechnisch wie hochprivilegierte Insider, jedoch ohne menschliches Urteilsvermögen, Pausen oder implizite Regeln. Sobald Agenten persistenten Kontext speichern, extern kommunizieren oder sich mit anderen Agenten austauschen, entstehen neue Angriffsvektoren jenseits klassischer Malware‑ oder Netzwerkmodelle – etwa zeitverzögerte Prompt‑Injection, unbemerkte Datenexfiltration oder schleichende Policy‑Umgehung. Die Folge: Agentische KI sprengt bestehende Trust‑Annahmen. Ohne strikte Zugriffskontrollen, lückenloses Logging, klare Abschaltmechanismen und explizite Verbote unkontrollierter Agent‑Netzwerke wird aus Automatisierung schnell ein systemisches Sicherheitsrisiko.
Sobald KI-Agenten autonom handeln, kommunizieren oder lernen, gelten sie sicherheitstechnisch als privilegierte Mitarbeiter – nur eben weitestgehend ohne Aufsicht.
Fazit: Wenn KI von der Leine gelassen wird
Moltbook ist bislang einzigartig, weil es offen zugänglich echte Agenten mit realen Berechtigungen zusammenbrachte und keinerlei Moderationsmechanismen vorsah. Ähnliche Projekte wie die AutoGen‑Agent‑Communities von Microsoft Research haben das experimentelle Stadium (bis jetzt) nicht verlassen, andere existieren nur in Testumgebungen oder als Simulation in der KI‑Forschung – ohne offene soziale Struktur.
Mit Moltbook holt Meta nicht nur ein Experiment ins Haus, sondern in erster Linie eine reale und unkontrollierbare Arena für agentische KI in freier Wildbahn. OpenClaw ist übrigens nicht Part des Deals. Dessen Gründer Peter Steinberger wechselte schon vor einem Monat zu OpenAI. OpenClaw wurde als eigenständiges Open‑Source‑Projekt in eine unabhängige Foundation überführt.
So oder so zeigt die Kombination aus Autonomie und Vernetzung erstmals im großen Maßstab, wie KI‑Agenten ohne direkte menschliche Steuerung miteinander agieren. Genau dieses Zusammenspiel interessiert Meta – und wirft zugleich neue Fragen zu Sicherheit, Kontrolle und Governance auf.
Meta betont, man wolle "sichere agentische Erlebnisse" schaffen. Konkrete Mechanismen nennt das Unternehmen bislang jedoch nicht. Die finanziellen Details des Deals sind aktuell übrigens nicht bekannt.
Der Artikel erschien zuerst bei unserer Schwesterpublikation computingdeutschland.de
CRN-Newsletter beziehen und Archiv nutzen - kostenlos: Jetzt bei der CRN Community anmelden