Volgens een aantal tech-ondernemers is het al zover. De technologische singulariteit zou begonnen zijn. AI-taalmodellen, zo zeggen zij, zouden in de nabije toekomst slimmer worden dan de mens, en niet veel later slimmer dan de hele mensheid bij elkaar. Investeerders smullen ervan. Maar er ligt nu een studie op tafel die het idee voorlopig onderuit haalt.
Even terug naar het begin voor wie afhaakt bij het woord singulariteit. Het is een idee dat al sinds midden vorige eeuw bestaat en later vooral bekend werd door futuroloog Ray Kurzweil. Kort uitgelegd: er komt een moment waarop AI zichzelf kan verbeteren, vervolgens nog slimmere versies van zichzelf bouwt en zo in een steeds sneller tempo voorbij de mens schiet. Futurologen noemen dat een “intelligentie-explosie”. Als dat gebeurt, kunnen we helemaal niet meer voorspellen hoe de samenleving er in de nabije toekomst uitziet. Vandaar de term ‘singulariteit’: voorbij de waarnemingshorizon van een zwart gat, waarbinnen zich een singulariteit bevindt, een punt met een oneindig grote dichtheid, kun je ook niets meer zien.
Een aantal techondernemers, waaronder Elon Musk en Sam Altman, denken nu dat het (bijna) zo ver is. Volgens hen is het een kwestie van tijd en rekenkracht voordat de taalmodellen achter chatbots als ChatGPT en Claude de mens overstijgen. Zij willen met hun bedrijven uiteraard meer datacenters bouwen, dus deze bewering komt hen goed uit. Met een korrel zout te nemen dus.
Volgens onderzoeker Hector Zenil van King’s College London is er echter een probleem. In een paper op preprintplatform arXiv toont hij wiskundig aan dat zo’n feedbackloop niet leidt tot een godheid in de cloud. In plaats daarvan lijkt het huidige paradigma zichzelf juist te gaan verslinden.
Het probleem als AI van zichzelf gaat leren
Er bestaat maar een eindig aantal teksten die door mensen zijn geschreven en taalmodellen hebben die grotendeels al gebruikt om te leren schrijven. Het idee is dat ze verder getraind kunnen worden op synthetische data. Dat zijn teksten die door taalmodellen zelf zijn opgesteld.
Zenil onderscheidt in zijn studie twee onvermijdelijke routes die op deze manier tot verval leiden. De eerste is wat hij entropie-verval noemt: stap voor stap raakt het model zijn diversiteit kwijt. De tweede is variantieversterking: zonder voortdurende correctie van buitenaf gaat de gemiddelde uitvoer alle kanten op zwalken. Het resultaat na een paar trainingsrondes op synthetische data is een AI die in zichzelf gekeerd is en die steeds verder afdwaalt van de echte wereld. In het vakgebied heet dat fenomeen model collapse.
Eerder onderzoek heeft al aangetoond dat het systeem stabiel blijft zolang er voldoende authentieke, door mensen gegenereerde data binnenstroomt. Maar de clou van de singulariteit is nu juist dat AI op een gegeven moment zonder mensen vooruit moet kunnen. En precies in die situatie knallen taalmodellen volgens deze analyse tegen een muur.
Niet alleen ChatGPT in de problemen
Vrijwel elk modern AI-model is getraind met wiskundige trucs die in de kern op hetzelfde neerkomen: patronen herkennen en voorspellen wat het meest waarschijnlijke volgende woord of pixel is. Dat fundament wankelt volgens deze analyse zodra je zo’n model op synthetische data laat trainen.
Yann LeCun, voormalig hoofd AI bij Meta, zegt dit eigenlijk al een tijdje. In 2025 zei hij dat het type taalmodellen dat we vandaag kennen simpelweg geen menselijke intelligentie kan bereiken. Volgens hem ligt de toekomst bij zogeheten wereldmodellen. Dat zijn systemen die leren door hun omgeving te observeren en ermee te interacteren. Huidige modellen werken door louter tekst te voorspellen. Datacenters opschalen is dus niet genoeg; er moet iets fundamenteel anders komen.
Leestip: AI maakt de zoektocht naar walvisgezang plots een stuk makkelijker
Zenil oppert in zijn paper voor een andere aanpak. Hij spreekt van een zogeheten neurosymbolische aanpak. In plaats van een AI eindeloos patronen te laten herkennen in bergen data, zou je hem moeten leren zoeken naar het achterliggende patroon. Een voorbeeld dat hij in zijn paper noemt: als een AI een reeks ziet, bijvoorbeeld 2, 4, 6, 8, leert een huidig model gewoon dat die getallen vaak na elkaar voorkomen. Een AI volgens Zenils aanpak zou daarentegen ontdekken dat het gewoon “tel telkens twee op” is. Zo’n model snapt vervolgens ook hoe het verder moet en kan op basis van een handjevol voorbeelden iets nieuws afleiden.
Daarmee komt het dicht bij iets wat filosoof Immanuel Kant al in 1781 onderscheidde, zo schrijft Zenil: het verschil tussen analytische kennis ( combineren wat je al weet) en synthetische kennis (écht iets nieuws maken). De huidige AI is keihard analytisch, maar mist het vermogen om nieuwe wetten of inzichten te bedenken. En zonder dat vermogen blijft het vooral een heel knappe papegaai.
Het stopt hier wellicht niet
Welke aanpak het uiteindelijk wordt, zal in de toekomst nog wel blijken. Maar als je deze tekst leest, heb je zelf al twee of drie technologische revoluties meegemaakt. Sommige lezers herinneren zich waarschijnlijk nog het pre-pc-tijdperk. Voor de iets jongere lezers was het de smartphonerevolutie. En er zijn nu al kinderen in de kleuterschool die post-ChatGPT zijn geboren. Dat het hierbij blijft, lijkt weinig waarschijnlijk.
Steeds meer onderzoekers geloven dan ook dat AI uiteindelijk slimmer wordt dan ons, of ten minste capabeler. Toen onderzoeksinstituut AI Impacts in 2022 meer dan 700 machine learning-experts vroeg wanneer machines elke menselijke taak goedkoper en beter zouden kunnen uitvoeren, kwam de mediane schatting uit op het jaar 2060. Een jaar later, nadat ChatGPT op de wereld was losgelaten, was dat al opgeschoven naar 2047. Tussen 2016 en 2022 verschoof diezelfde verwachting met amper één jaar.
Natuurlijk hebben sommige stemmen in dat koor er belang bij het tempo hoog in te schatten; hun reputaties en salarissen hangen er deels van af. Maar als de geschiedenis ons iets leert, is het dat de mens niet zomaar zal stoppen te innoveren.
Schrijf je in voor de nieuwsbrief! Ook elke dag vers het laatste wetenschapsnieuws in je inbox? Of elke week? Schrijf je hier in voor de nieuwsbrief!

1 uur geleden
1










English (US) ·