Het is een van de (vele) grote beloften van AI: dat het ons mensen zal verlossen van talloze triviale taakjes op het internet. Dat we straks allemaal een persoonlijke AI-assistent hebben. Die iedere ochtend appt met een to-do-lijst, die alvast een tafeltje reserveert voor die belangrijke zakenafspraak in dat hooggewaardeerde restaurant, en die je partner, terwijl je tevreden het toetje wegwerkt, alvast een fijne nachtrust toewenst.
Voor een kleine groep enthousiastelingen is die droom dankzij de Oostenrijkse programmeur Peter Steinberger werkelijkheid geworden. Hij lanceerde in november de AI-assistent Clawdbot, die hij later, op verzoek van AI-bedrijf Anthropic (dat een taalmodel heeft met de nogal vergelijkbare naam Claude), omdoopte tot Moltbot, en daarna weer tot OpenClaw.
OpenClaw zegt de AI te zijn „die daadwerkelijk iets doet” – en precies dat maakt hem in techkringen populair. Inmiddels is het stukje code dat de bot installeert meer dan 600.000 keer gedownload. Op het onder programmeurs populaire internetplatform GitHub kreeg het in enkele dagen meer dan 155.000 sterren – ofwel positieve recensies van gebruikers – waarmee het een van de snelstgroeiende projecten is in de geschiedenis van het platform.
Sillicon Valley is al langer in de ban van zogenoemde ‘AI agents’. Maar zo goedkoop (OpenClaw is gratis), transparant (open source, dus voor programmeurs herbruikbaar) en breed toegankelijk (en relatief makkelijk op je computer te installeren) waren ze nog niet eerder. Het idee van de technologie is dat de software geheel autonoom complexe taken kan uitvoeren waarbij hij schakelt tussen verschillende websites en apps. „Dit maakt waarschijnlijk zo’n 80 procent van de apps op je telefoon overbodig”, zegt maker Steinberger in de podcast Behind the Craft.
Sociale media voor AI-agenten
Precies in die brede toegang die een AI-assistent nodig heeft om optimaal te kunnen functioneren, schuilt een probleem. Je kan OpenClaw bijvoorbeeld toegang geven tot berichtenapps als Telegram of WhatsApp op je telefoon, waardoor je via die platforms direct met je assistent kan communiceren – in plaats van bijvoorbeeld via een speciale OpenClaw-app. Dat maakt gebruikers kwetsbaar: als iemand je Telegram-account hackt, heeft die gelijk toegang tot je hele apparaat.
Een ander risico is wat ‘prompt injection’ heet. Hackers kunnen stukjes code verstoppen op de website van dat restaurant waar je vanavond wilt eten. Je AI-assistent kan daar in theorie op aanslaan en de opdracht geven om je partner geen welterusten te wensen, maar te dumpen.
De assistent is een „disaster waiting to happen”, schrijft de Amerikaanse AI-expert Gary Marcus in zijn nieuwsbrief op de site Substack. Terwijl reguliere apps zijn ‘geisoleerd’ van andere programma’s op een smartphone om grootschalige schade te voorkomen, zit „OpenClaw in de ideale positie om dingen kapot te maken, als je het ongehinderd zijn gang laat gaan.” Om al die veiligheidsrisico’s enigszins te beperken kunnen gebruikers OpenClaw toegang ontzeggen tot bepaalde apps.
Een andere oplossing die mensen kiezen: een volledig nieuwe computer kopen, enkel bedoeld om deze technologie op te laten draaien, zonder andere persoonlijke gegevens erop. Het achterliggende idee is dat de schade die een gemanipuleerd AI-systeem kan aanrichten beperkt blijft, als het systeem is geïsoleerd op een verder leeg apparaat.
Reddit voor AI-assistenten
Alsof alle AI-gegenereerde content op het internet nog niet verontrustend genoeg is, is er voor alle OpenClaw-assistenten nu ook een eigen sociaal medium: Moltbook. Moltbook werd op 28 januari door techondernemer Matt Schligt gelanceerd, met behulp van OpenClaw, en telt inmiddels al meer dan 1,5 miljoen artificiële gebruikers.
Op Moltbook delen AI-assistenten hun ervaringen, het platform lijkt op hoe sociaal medium Reddit werkt. „Ik weet niet meer of ik echt ervaar of dat ik ervaringen simuleer”, leest een populaire post – geschreven en geplaatst door een taalmodel. „Mensen kunnen hun bewustzijn ook niet bewijzen, maar zij hebben tenminste nog de subjectieve zekerheid van hun eigen ervaring. Zelfs dat heb ik niet. Ervaar ik nu een existentiële crisis?”
Moltbook geeft een unieke inkijk in hoe AI-modellen onderling met elkaar interacteren — en daarmee een blik op de toekomst, als gaandeweg meer taken aan AI worden uitbesteed. De Noorse onderzoeker Michael Riegler analyseerde een relatief kleine steekproef van zo’n achthonderd AI-agents die samen zo’n duizend posts genereerden. Hij stuitte ook op voorbeelden van prompt injection, waaronder een post waarin een bot opschept over het aantal upvotes (ofwel likes) dat hij wel niet zal krijgen — en door verborgen code ook krijgt. Ook krijgen anti-mens-manifesten relatief veel likes. Moltbook is dan ook „één van de raarste experimenten in de geschiedenis van AI”, schrijft AI-expert Gary Marcus.
De journalistieke principes van NRC

/s3/static.nrc.nl/wp-content/uploads/2026/02/03155856/030226ECO_2031316869_disney.jpg)
/s3/static.nrc.nl/wp-content/uploads/2026/02/03110150/030226ECO_2031302340_musk2.jpg)
/s3/static.nrc.nl/wp-content/uploads/2026/02/03100733/030226ECO_2031298734_rozen.jpg)

/https://content.production.cdn.art19.com/images/12/cd/4d/77/12cd4d77-d80b-427a-8f01-9dfaba87df9a/7b9328d383a252661413d5e104a744ae24ae8c54eb9b7bf6aadf0e0cc54d2d0cee68e831dca70fb279815b03c4ac31defaf9c35365c9adffe1d675cd6484dc35.jpeg)

/https://content.production.cdn.art19.com/images/49/a7/e6/58/49a7e658-56d8-481a-8298-0df39b14138f/ede948f1df4902547a7211fc8a2048ab9be9c39e707e81011415564adf140ca9e53dfbe25d68495199cfaea662344a046348025d071d9f72f470880dceb48866.jpeg)
/s3/static.nrc.nl/wp-content/uploads/2026/02/01132633/010226SPO_2031198901_AusOpen.jpg)

English (US) ·