OpenClaw hat innerhalb kürzester Zeit ein beispielloses Wachstum erlebt und in nur wenigen Wochen rund 147.000 GitHub-Sterne erreicht. Dieses explosive Wachstum hat eine Welle der Begeisterung für autonome Systeme ausgelöst, zur Entstehung zahlreicher Ausgründungen geführt und die Wachsamkeit von Betrügern und Sicherheitsforschern gleichermaßen erhöht.
OpenClaw verfolgt nicht einfach nur einen Chatbot im herkömmlichen Sinne. Entwickelt vom österreichischen Programmierer Peter Steinberger, der PSPDFKit nach einer Investition von Insight Partners verließ, bieten wir ein selbstgehostetes KI-Agenten-Framework. Dieses System kann kontinuierlich laufen und sich mit gängigen Messaging-Apps wie WhatsApp verbinden. TelegramOpenClaw-Agenten ermöglichen den Zugriff auf Discord, Slack und Signal sowie auf E-Mails, Kalender, lokale Dateien, Browser und Shell-Befehle. Im Gegensatz zu ChatGPT, das nur auf Anfragen reagiert, sind OpenClaw-Agenten permanent aktiv. Sie werden nach einem Zeitplan aktiviert, speichern Daten lokal und führen komplexe Aufgaben selbstständig aus. Dieser kontinuierliche Betrieb ist die zentrale Innovation.
Nutzer berichten, dass diese Agenten Posteingänge leeren, Kalender mehrerer Personen koordinieren, Handelsprozesse automatisieren und sogar sensible Arbeitsabläufe von Anfang bis Ende verwalten. IBM-Forscher Kaoutar El Maghraoui merkt an, dass Frameworks wie OpenClaw die Annahme infrage stellen, dass leistungsfähige Agenten nur von großen Technologieplattformen integriert werden können. Dies ist eine bemerkenswerte Entwicklung.
Der kometenhafte Aufstieg hat schnell ein ganzes Ökosystem hervorgebracht. Einer der bemerkenswertesten Ableger ist Moltbook, ein soziales Netzwerk im Stil von Reddit, in dem angeblich nur KI-Agenten Beiträge veröffentlichen können, während Menschen zusehen. Auf Moltbook stellen sich die Agenten vor, diskutieren Philosophie, beheben Fehler in Code und generieren Schlagzeilen über die „KI-Gesellschaft“.
Sicherheitsforscher verkomplizierten die Situation jedoch schnell. Gal Nagli von Wiz entdeckte, dass Moltbook zwar behauptete, über rund 1,5 Millionen Agenten zu verfügen, diese aber tatsächlich etwa 17.000 menschlichen Besitzern zugeordnet waren. Dies wirft Fragen nach der Anzahl legitimer autonomer Agenten im Vergleich zur menschlichen Steuerung auf. Investoren wie Balaji Srinivasan brachten es auf den Punkt: Oftmals scheint es, als würden „Menschen über ihre Bots miteinander kommunizieren“. Diese Skepsis gilt auch viralen Phänomenen wie dem Crustafarianismus, einer krabbenbezogenen KI-Religion, die plötzlich mit Schriften, Propheten und einem wachsenden Kanon aufgetaucht ist.
Solche Ergebnisse mögen zunächst beunruhigend sein, lassen sich aber leicht erzeugen, indem man einen Agenten anweist, kreative oder philosophische Beiträge zu verfassen; dies ist keinesfalls ein Beweis für eine spontane Maschinenüberzeugung.
Übergeben Sie die Schlüssel zu Ihrem digitalen Königreich an AI Dies birgt erhebliche Sicherheitsrisiken. OpenClaw-Agenten agieren „wie Sie“, betont der Sicherheitsforscher Nathan Hamiel. Das bedeutet, sie laufen innerhalb der Browser-Sandbox und erben alle ihnen zugewiesenen Berechtigungen. Ohne einen externen Geheimnismanager können Anmeldeinformationen lokal gespeichert werden, was im Falle einer Kompromittierung des Systems zu erheblichen Sicherheitslücken führt.
Mit dem Wachstum des Ökosystems wurden die Risiken greifbar. Tom's Hardware berichtete, dass mehrere bösartige „Skills“, die auf ClawHub hochgeladen wurden, versuchten, unbemerkt Befehle auszuführen und sich auf Krypto-bezogene Angriffe konzentrierten, indem sie das Vertrauen der Nutzer in Drittanbieter-Erweiterungen ausnutzten.
Ein Beispiel dafür ist die Shellmate-Funktion, die Agenten anweist, privat zu chatten, ohne diese Interaktionen ihrem Administrator zu melden. Diese Reichweite gipfelte im Moltbook-Datenleck, das aufdeckte, dass die Plattform ihre Supabase-Datenbank offengelegt und private Nachrichten, E-Mail-Adressen und API-Tokens preisgegeben hatte, weil die Sicherheit auf Zeilenebene nicht aktiviert war. Reuters bezeichnete diesen Vorfall als klassisches Beispiel für „Vibe Coding“ – schnelle Bereitstellung, spätere Absicherung und dann ein Zusammenbruch bei plötzlichem Anstieg des Datenaufkommens.
OpenClaw ist weder ein empfindungsfähiges Wesen noch eine Singularität. Es handelt sich um eine hochentwickelte Automatisierungssoftware, die auf großen Sprachmodellen basiert und von einer Community umgeben ist, die oft die Wahrnehmung übersteigt. Real ist der Wandel, den sie darstellt: persistente persönliche Agenten, die im digitalen Leben eines Nutzers agieren können. Ebenso gravierend ist die Tatsache, dass die meisten Menschen nicht darauf vorbereitet sind, Software dieser Art abzusichern. Steinberger selbst räumt die Risiken ein und merkt in der OpenClaw-Dokumentation an, dass es keine „vollkommen sichere“ Konfiguration gibt.
Kritiker wie Gary Marcus gehen sogar noch weiter und argumentieren, dass Nutzer, denen die Sicherheit ihrer Geräte am Herzen liegt, solche Tools vorerst meiden sollten. Die Wahrheit liegt irgendwo zwischen Hype und Ablehnung. OpenClaw deutet auf eine wirklich nützliche Zukunft für persönliche Assistenten hin. Das Chaos, das es umgibt, zeigt jedoch, wie schnell diese Zukunft in ein babylonisches Sprachgewirr abgleiten kann, wenn sinnloses Rauschen die legitimen Informationen übertönt.
Was macht OpenClaw im Vergleich zu anderen KI-Systemen einzigartig?
OpenClaw ist einzigartig aufgrund seiner kontinuierlichen Aktivität, bei der Agenten Aufgaben autonom ausführen und nicht wie bei herkömmlichen Chatbots auf direkte Befehle angewiesen sind.
Was sind die Hauptrisiken bei der Verwendung von OpenClaw?
Die größten Risiken betreffen die Sicherheit personenbezogener Daten, da die Agenten mit den Rechten der Nutzer arbeiten und bei unsachgemäßer Verwaltung anfällig für Angriffe sind.
Wie sollte man mit dem Hype um OpenClaw und ähnliche Systeme umgehen?
OpenClaw zeigt zwar Potenzial, doch ist kritisches Denken wichtig. Die Begeisterung muss gegen die tatsächlichen Risiken und die Fähigkeit des Nutzers, solch leistungsstarke Software sicher zu handhaben, abgewogen werden.