Oproep tot verbod ‘superintelligentie’ is als boksen met een onbekende tegenstander

14 uren geleden 1

„Eén voor één leken AI-bedrijven hun missie aan te passen en te richten op het ontwikkelen van ‘superintelligentie’. Alsof ze die term plotseling probeerden te normaliseren. Terwijl dat woord daarvoor echt alléén gebruikt werd voor een AI-systeem dat menselijke vermogens op alle vlakken overtreft, en waaraan volgens de meeste wetenschappers enorm veel risico’s kleven.

„Maar nu leek het bij al die bedrijven opeens onderdeel van hun marketing te zijn. Daar maakten we ons steeds meer zorgen over. Zelfs Meta-topman Mark Zuckerberg, die je er nooit over hoorde, begon deze zomer over  ‘persoonlijke superintelligentie’, wat een soort kunstmatige persoonlijke assistent zou moeten worden die je altijd terzijde staat. Ook bij Chinese bedrijven zie je nu verwijzingen naar superintelligentie opduiken.”

Het FLI, opgericht in 2014, besloot een tegengeluid te laten horen. In 2023 verspreidde het instituut al eens een open brief met een vergelijkbare boodschap. Toen was het een oproep  om de ontwikkeling van ‘gewone’ kunstmatige intelligentie zes maanden stil te leggen (van superintelligentie was nog geen sprake). Van het bepleite moratorium kwam destijds niets terecht – integendeel, de ontwikkeling van AI kwam in een stroomversnelling.

Het is moeilijk om te weten hoe wij ons verhouden tot iets dat veel intelligenter is dan wij mensen

Deze woensdag verspreidde het FLI een verklaring, ondertekend door tal van grote namen uit wetenschap, bedrijfsleven, politiek, cultuur en media, met een dringende oproep tot een voorlopig verbod op de ontwikkeling van superintelligentie – terwijl niemand eigenlijk nog goed weet wat dat is, of beter: wat het misschien kan worden.

Het verbod zou pas opgeheven mogen worden, stelt de verklaring, als er „brede wetenschappelijke consensus is dat dit veilig en beheersbaar kan gebeuren” en „de publieke opinie erachter staat”. Superintelligentie gaat verder dan de door AI-bedrijven ook beoogde Artificial General Intelligence, of AGI, zegt Brakel. „Bij AGI is het evenaren van de menselijke intelligentie het doel, bij superintelligentie het voorbijstreven daarvan.”

Tot de ondertekenaars van de verklaring horen AI-experts als Geoffrey Hinton (Nobelprijs-winnaar), Yoshua Bengio en Stuart Russell, mede-oprichter van Apple Steve Wozniak, Jaan Tallinn (mede-oprichter van Skype), ondernemer Richard Branson (Virgin), de AI-adviseur van de paus Paolo Benanti, Mike Mullen (hoogste militair onder George W. Bush en Obama), Susan Rice (veiligheidsadviseur onder Obama), Steve Bannon (oud-adviseur van president Trump), Mary Robinson (oud-president van Ierland), de oud-topman van het Chinese techbedrijf Baidu Ya-Qin Zhang, de Britse prins Harry, zijn vrouw Meghan Markle en nog vele honderden anderen.

Overbodigheid van de mens

Innovatieve vormen van AI kunnen weliswaar „ongekende vooruitgang bieden op het terrein van gezondheid en welvaart”, schrijft het FLI in een toelichting. Maar zorgelijk vindt het instituut dat veel vooraanstaande AI-bedrijven nu als hun doel een vorm van kunstmatige intelligentie hebben gekozen, die leidt tot „machteloosheid en overbodigheid van de mens in de economie, verlies aan vrijheid, burgerrechten, waardigheid en controle, risico’s op het gebied van nationale veiligheid en potentieel zelfs het uitsterven van de mensheid”.

Dat de mens de controle verliest over systemen van superintelligentie is „de grootste zorg van ons instituut en ik denk ook van de meeste ondertekenaars”, zegt Brakel. „Bij een heel simpel algoritme van Facebook, dat erop gericht is mensen zo lang mogelijk op het platform te houden, hebben we jaren geleden al gezien dat het heeft bijgedragen aan etnisch geweld in Myanmar. Terwijl geen mens het systeem daarop had geprogrammeerd. Onze vrees is dat je met veel geavanceerdere technologie ook veel meer risico’s op de samenleving afwentelt.

„Het is moeilijk om te weten hoe wij ons verhouden tot iets dat veel intelligenter is dan wij mensen. Je kan het misschien alleen vergelijken met dieren, die een mindere, of andere vorm van intelligentie hebben dan wij, en die vermoedelijk ook niet kunnen uitleggen waarom hun leefgebied wordt bedreigd of waarom zij geen toegang meer hebben tot het bos zoals ze dat ooit kenden. Theoretisch gezien is er geen reden om te zeggen dat de menselijke intelligentie de piek van verstandelijke vermogens is.”

Lees ook

‘AI-doomers’ denken dat AI tot het einde van de mensheid zal leiden. ‘Het zal proberen de macht over te nemen’

‘AI-doomers’ denken dat AI tot het einde van de mensheid zal leiden. ‘Het zal proberen de macht over te nemen’

Maar zijn het niet erg grote woorden om te waarschuwen voor het uitsterven van de mensheid? „Het is het meest extreme scenario”, erkent Brakel. „Maar dat is wel degelijk mogelijk als een systeem alleen prioriteit geeft aan het maken van winst, ten koste van de grondstoffen die we nodig hebben om te overleven. Wij willen dat hier een maatschappelijk debat over wordt gevoerd. En dat de ceo’s van sommige AI-bedrijven zich ongemakkelijk gaan voelen en zeggen: ik ben bereid te stoppen met het streven naar superintelligentie als anderen dat ook doen.

„We hebben eerder maatschappelijke debatten gehad over de wenselijkheid van technologische ontwikkelingen. Zo zijn we internationaal tot de conclusie gekomen dat we het klonen van mensen niet aanvaardbaar vinden, niet in de VS, niet in China en niet in Europa. We zouden nu moeten kunnen zeggen: van superintelligentie willen we eerst een bewijs zien dat het veilig kan.”

Stoere term

De verklaring van de prominenten tegen superintelligentie is volgens Claes de Vreese, hoogleraar kunstmatige intelligentie en samenleving aan de Universiteit van Amsterdam, „zacht gezegd een heel onduidelijke oproep. Waar ze precies tegen waarschuwen blijft vaag. Daardoor lijkt het een bokswedstrijd met een onbekende tegenstander.

Als je nu aan AI-experts vraagt wat ‘superintelligentie’ is, dan krijg je van de meeste geen duidelijk antwoord

„Het is waar dat veel van de stappen bij de ontwikkeling van kunstmatige intelligentie onvoorspelbaar zijn. Maar als je iets wil verbieden totdat er wetenschappelijke consensus over bestaat en brede maatschappelijke steun voor is, dan moet je wel enigszins kunnen uiteenzetten wat dat ‘iets’ eigenlijk is. Als je nu aan AI-experts vraagt wat ‘superintelligentie’ is, dan krijg je van de meeste geen duidelijk antwoord.

„Maar stel nu eens dat iedereen in de oproep meegaat en zegt: ja, laten we inderdaad een moratorium afkondigen. Waar zou je dan de volgende dag de rode lijn trekken van wat nog wel, en wat niet meer mag? Welke ontwikkeling van AI kan doorgaan, en van welke andere ontwikkeling zeg je: nee, dat gaat richting superintelligentie, daarmee moet je stoppen. Ik zou die grens niet kunnen trekken.”

Lees ook

Amerika zet vol in op superintelligentie

Amerika zet vol in op superintelligentie

De Vreese wijst erop dat het gebruik van stoere termen als  ‘superintelligentie’ voor de AI-bedrijven de functie kan hebben om de fascinatie met AI, en daarmee de stroom aan investeringen, op gang te houden, ook als de groei in AI wat afvlakt en er zorgen ontstaan dat de zeepbel wel eens kan knappen. „Dan werken dit soort metaforen erg goed. . Je laat ermee zien dat je bezig bent met grote stappen en onvoorstelbare doorbraken. En hoe meer er in de media over wordt bericht, hoe groter vervolgens de investeringen zijn.”

Nog maar een paar jaar geleden wilden veel regeringen, van de Verenigde Staten tot Europa, de ontwikkeling en invoering van AI binden aan duidelijke regels.  Maar inmiddels is de wind gedraaid. Niet alleen president Trump, met zijn nauwe banden met de techbedrijven, ziet weinig in regels voor AI. Ook in de Europese Unie slinkt het enthousiasme ervoor.

„Regeringen willen de regulering van innovatie versoepelen, maar zijn de burgers het daar wel mee eens?”, luidde deze zomer de kop boven een artikel op de site TechPolicy.Press, met De Vreese als een van de auteurs. „Onderzoek”, licht hij toe, „laat zien dat er over de hele wereld, ook in de VS, brede steun bestaat voor regulering van deze technologie.  Internationaal heerst de mening dat dit geen ongereguleerd terrein moet zijn. In die zin vertolkt de oproep voor een verbod op de ontwikkeling van superintelligentie wel een wereldwijd gevoel.”

De vraag is of politici luisteren naar de publieke opinie, of naar de grote AI-bedrijven die ongehinderd snel verder willen innoveren. „We staan nu echt op een kruispunt”, zegt De Vreese. „Met de AI-Verordening (AI-Act) heeft de Europese Unie het gereedschap om op te treden: de mogelijkheid om sommige toepassingen van AI te classificeren in de hoogste risico-categorie. Dat betekent dat bepaalde toepassingen, in bijvoorbeeld het militair domein, dan niet verder ontwikkeld mogen worden.

„Maar vanuit de Verenigde Staten, vanuit sommige Europese landen en zelfs vanuit de Europese Commissie klinkt nu de roep om de AI-Verordening alweer af te zwakken. Terwijl  die pas vorig jaar in werking is getreden. Juist nu het aankomt op de implementatie en handhaving, kan je beter niets weggeven.  Als je daarmee begint, zal het niet bij een kleine concessie blijven.”

Lees het hele artikel