Robots staken niet, toch leek het daar dinsdag 31 maart op. Die dag weigerden honderd zelfrijdende taxi’s in de Chinese stad Wuhan opeens dienst. De auto’s van Apollo Go (van de Chinese techgigant Baidu) stonden midden op straat stil en veroorzaakten zo een nog grotere verkeerschaos dan gebruikelijk in de miljoenenstad.
De boze passagiers stapten uit, de boze autoriteiten grepen in. Baidu moest al zijn robottaxi’s in Wuhan per direct van straat halen en andere aanbieders van zelfrijdende taxi’s mogen hun projecten in China voorlopig niet uitbreiden. Eerst moet er een verklaring komen voor de robotstaking in Wuhan.
De Amerikaanse veiligheidsexpert Philip Koopman volgt de ontwikkelingen in zelfrijdende auto’s op de voet. „China neemt dit soort incidenten heel serieus, ze zijn veel strenger dan in de VS”, vertelt hij aan de telefoon. Na een recente, omvangrijke storing bij Waymo, de grootste Amerikaanse aanbieder van robottaxi’s, volgde een onderzoek, maar geen maatregelen.
Robottaxidiensten werken met operators die per persoon soms tientallen voertuigen in de gaten houden, als babysitters op afstand. In China staan de taxi’s continu onder toezicht, terwijl Waymo-operators pas meekijken als de auto zelf assistentie inroept. Maar het probleem is dat een auto moeilijk zelf kan inschatten wanneer-ie in de problemen zit, legt Koopman uit. Dat is een van de klachten van nooddiensten: Waymo-auto’s blokkeren soms de rijbaan voor ambulances. Zoals vorige maand in Austin, Texas, na een schietpartij in een bar. Op een filmpje is te zien hoe een robotauto volledig de weg kwijt is, terwijl er mensenlevens op het spel staan.
Maar ook de Chinese aanpak – actief meekijken – is geen wondermiddel, stelt Koopman. „Als er een grootschalige storing is, moeten sommige auto’s wachten op hulp.”
Techbedrijven brengen volgens de expert „onvolwassen technologie” op de markt en compenseren de tekortkomingen met bestuurders op afstand. „Bij omvangrijke incidenten zouden ze dat toezicht snel moeten kunnen uitbreiden met extra medewerkers.” Een menselijke back-up, voor als de computer het niet meer weet.
Een rit in een zelfrijdende taxi heeft iets magisch, of je nou door San Francisco of door Wuhan zoeft. Maar rijvaardigheid zegt niets over de veiligheid. Veiligheid gaat over miljoenen kilometers, niet over een paar ritjes. Zelfs al worden zelfrijdende auto’s beter, het aantal incidenten neemt toe omdat er simpelweg meer robottaxi’s bijkomen.
Stop, schoolbus
Hoe onvolwassen de robottaxi nog is, blijkt uit de Waymo-auto’s die een typische Amerikaanse verschijning negeren: de schoolbus. Ook na software updates blijven de robottaxi’s langs schoolbussen scheuren die overduidelijk een stopsignaal geven. Dit probleem doet zich volgens Koopman voor sinds Waymo een nieuwe leermethode voor zijn software introduceerde. Het is vaak een mysterie wat er onder de motorkap van de AI-modellen gebeurt. Zo blijken zelfrijdende busjes die in de winter getraind werden, in de zomer geen bomen te herkennen, omdat de takken vol groene bladeren zaten.
In een opiniestuk in het Financieele Dagblad schamperden de Europese tech-ceo’s afgelopen week dat Europa nog discussieert over AI-regulering, terwijl andere grootmachten „zich allang richten op AI in fysieke systemen en robotica.” Maar robots loslaten in de openbare ruimte, dat vraagt wel om een alerte overheid.
China reageert tot nu toe sneller op incidenten dan de VS. Dat bleek na de taxistoring in Wuhan, maar ook na een dodelijk ongeluk met een Xiaomi-auto die zogenaamd op de automatische piloot reed. Chinese rijhulpsoftware mag geen misleidende naam meer dragen, die suggereert dat een auto echt zelfstandig rijdt. Denk aan ‘smart’ en ‘autonoom’. Of ‘Autopilot’ of ‘Full Self Driving’, de termen Tesla die hanteert. Koopman: „In de VS verongelukken nog veel mensen in Tesla-crashes, maar daar gebeurt weinig mee. Een onderzoekje, hooguit.”
Tesla mag sinds vorige maand zijn rijhulpsysteem in Nederland aanbieden met de toevoeging ‘supervised’. Het is een Level 2-systeem – dat wil zeggen dat de bestuurder verantwoordelijk blijft voor de veiligheid, ook al rijdt de auto zelf van A naar B.
Volgens de Rijksdienst voor het Wegverkeer (RDW) kan Tesla’s systeem de veiligheid verbeteren, mits het op de juiste manier gebruikt wordt. Maar dat juiste gebruik is nou net het probleem, vindt Koopman. Hij noemt het de ‘ironie van automatisering’: hoe beter de rijhulp, hoe minder capabel degene die toezicht moet houden.
Neem verkeerslichtherkenning: als de auto de helft van de keren het rode licht mist, dan houd je de voet bij de rem. Als de software het 999 van de 1.000 keer wel goed inschat, vertrouw je het systeem blindelings, tot die ene keer dat het misgaat.
Bestuurders dan de schuld geven omdat ze hun aandacht er niet bij hadden, heeft geen zin, vindt Koopman. Het kost tijd om uit de babysit-modus te komen en weer je eigen chauffeur te zijn.
Autofabrikanten zouden, wat hem betreft, beter hun best doen om misbruik te voorkomen. Denk aan dronken bestuurders die hopen dat de auto hen naar huis brengt, of mensen die een zonnebril opzetten om het monitoringsysteem te flessen – de camera’s die checken of je je ogen op de weg gericht houdt.
Dat krijg je ervan, als je belooft dat de computer een betere chauffeur is dan de mens.


:format(jpeg):fill(f8f8f8,true)/s3/static.nrc.nl/taxonomy/06b57cb-AanZet_itemafbeelding.png)



/s3/static.nrc.nl/wp-content/uploads/2026/05/06115015/060526CUL_2032604031_medusaDRAGEND.jpg)


English (US) ·