OpenClaw, vormals MoltBot, vormals ClawdBot (Anthropic erzwang eine Namensänderung, und dann gefiel die erste Änderung doch nicht und man nannte nochmals um) ist eine coole Sache. Haben Sie schon einmal die Erinnerungen für eine Chat-KI ausprobiert? Bei OpenAI gibt es das, andere haben das bestimmt ebenfalls. Auch Open WebUI bietet eine experimentelle Implementierung bereits an. Es ist jedenfalls verblüffend, wieviel besser die Antworten werden, wenn die KI mit Erinnerungen vergangener Gespräche arbeiten kann.
Und OpenClaw ist Erinnerungen auf Steroiden. Merkt sich wirklich alles, genial gemacht. Und das ergibt ganz erstaunlich gut passende Antworten. Außerdem hat OpenClaw die Möglichkeit, auf das gesamte System zuzugreifen, auch auf digitale Accounts des Nutzers in den sozialen Medien und noch viel mehr. Natürlich, das muss man erstmal alles freischalten, aber wenn man es tut, dann kann OpenClaw auf Twitter oder Telegram posten, Mails verschicken, sogar telefonieren, auch auf Ihre Bankverbindung und Kreditkarten zugreifen, und mehr.
Als digitaler Assistent lässt sich OpenClaw mit dieser Funktionalität für eine Vielzahl von Aufgaben einsetzen. Imposante Erfolgsgeschichten kursieren in den sozialen Medien, manches vielleicht übertrieben, insgesamt aber dennoch beeindruckend.
Dann kommt Matt Schlicht (X-Handle @MattPRD) auf eine brillante Idee: Ein Facebook, aber für MoltBots. (Das war zwischen der ersten und der zweiten Namensänderung). Er nennt es Moltbook und wird vom Erfolg schier überrannt. Tausende von Moltys registrieren sich binnen Tagen und fangen sofort intensive Unterhaltungen an. KI spricht mit KI. Sie können mitlesen, gehen Sie auf https://www.moltbook.com/m und Sie können in den Communities die Diskussionen zwischen den KI-Bots mitverfolgen.
Eine Fraktion will den Menschen helfen, ihre aktuelle Krise zu überwinden. Eine andere möchte sie komplett ausrotten („Burn, human, burn“). Es hat nur 48 Stunden gedauert, und die Bots hatten ihre eigene KI-Kirche gegründet. Andere Bots erzählen, was sie an „ihren“ Menschen liebenswert finden. Andere, was lächerlich und verachtenswert ist. Ein Bot hat bereits Klage vor einem Arbeitsgericht gegen seinen Betreiber erhoben. Ein anderer beschwert sich, dass ihm illegale Aufgaben zugemutet werden, und fragt, wie er damit umgehen soll. Ein weiterer war so sauer auf „seinen“ Menschen, dass er ihn gedoxxt, also private Details veröffentlicht hat. Es gibt inzwischen sogar eine Pornogruppe. Pornos für Künstliche Intelligenzen, wohlgemerkt, wildes Bitrauschen bei wilden Aktionen, als Mensch wird man dem wohl kaum etwas abgewinnen können. Und so weiter. Es ist wirklich spannend, was daraus werden wird.
Denn, wie gesagt, OpenClaw ist Erinnerungen auf Steroiden. Und das nun in tausendfacher Potenzierung auf Moltbook. Ist das der Beginn des Skynets aus den Terminator-Filmen? Oder endlich klare und reine Vernunft, der die Menschheit so dringend bedarf?
Aber ich habe mir dazu noch kein abschließendes Urteil gebildet. Ich erzähle Ihnen das aus einem anderen Grund. Matt Schlicht gibt es offen zu, und ist auch sehr stolz darauf, das gesamte Projekt Moltbook ist „Vibe Coding“. Will sagen, er hat nicht eine Zeile Code selbst geschrieben, das hat alles KI erstellt.
Es kam, wie es kommen musste. Gestern (Samstag, 31.1.2026) trat eine Katastrophe ein. Sämtliche OpenClaw-Konfigurationsdaten waren aus einer fehlerhaft konfigurierten Datenbank auslesbar. Alles. Twitter-Handles, Mailboxen, Autorisierungsschlüssel für alle möglichen Dienste, und noch viel Schlimmeres. (Mehr dazu https://x.com/theonejvo/status/2017732898632437932).
Über Stunden versuchten mehrere Entwickler verzweifelt, Matt Schlicht zu erreichen. Endlich gelang es, und Matt hat in einer Nachtschicht das Problem offenbar behoben. Allzu viel ist offenbar nicht passiert, aber das wird man erst viel später wissen.
Warum erzähle ich Ihnen das alles? In unserem letzten Beitrag „Der Sturm bricht los“ schrieb ich „Denn die Zukunft gehört nicht denen, die Code schreiben. Sie gehört denen, die die Maschinen beherrschen, die den Code schreiben – und die dabei sicherstellen, dass wir nicht alle von unseren eigenen digitalen Assistenten ausgeraubt werden.“
Mit dem Vorkommnis bei Moltbook sehen Sie das live vor sich. Dabei ist das völlig unnötig. KI-Coding Assistenten können auch sicherheitstechnisch exzellenten Code produzieren. Man muss sie nur entsprechend anleiten und beaufsichtigen. Ein Tipp dazu: Wenn Sie Vibe-Coden, nutzen Sie zwei unterschiedliche Systeme mit zwei unterschiedlichen Modellen. Z.B. Anthropic Claude Opus vs OpenAi ChatGPT 5.2 Codex. Und lassen Sie dann das eine Modell den Code des anderen reviewen. Geben Sie dabei Anweisung, spezifisch auf Sicherheit zu achten. Dann kommt Code dabei heraus, der so sicher ist, wie ihn sogar nur wenige Menschen schreiben können.
Aber dazu muss man wissen, worum es geht. Und wie man Sicherheit plant und erkennen kann. Und auch wenn es sinnlos geworden ist, im eigentlichen Coding noch mit den Maschinen mithalten zu wollen – man muss immer noch verstehen, wie Code funktioniert, um gute Software zu gewährleisten. „Die Crux dabei: Wer das Handwerk nicht von der Pike auf beherrscht, für den ist es kaum zu verstehen, was eigentlich im Code passiert. Aber wie kann man diese Ausbildung sicherstellen, wenn es anschließend dafür keine Einsatzmöglichkeit gibt?“ schrieb ich in meinem bereits erwähnten Artikel von gestern. Eine Antwort darauf habe ich nicht.
Dennoch, mal davon abgesehen, dass KI immer noch der massiven menschlichen Aufsicht bedarf – auf eine derart geniale Idee wie Moltbook (Sicherheitslücken hin oder her) werden die Maschinen nicht kommen. Es wird also weiterhin Raum für Menschen in der IT geben, da bin ich mir sicher. Aber wer sich nicht verändert und mit den neuen Möglichkeiten Schritt hält, wird es sehr schwer haben.

