In heel korte tijd zijn we massaal verslingerd geraakt aan ChatGPT en consorten. Ze beantwoorden al onze moeilijke vragen, maken een perfecte reisplanning en verbeteren onze mailtjes. Handig, maar ook gevaarlijk: als we massaal dezelfde AI-systemen gebruiken, gaat onze manier van schrijven, denken en redeneren ook steeds meer op elkaar lijken.
Je ziet online al wel grappig bedoelde filmpjes langskomen waarin mensen reageren als een chatbot (‘leuke vraag, ik help je graag verder’). Maar er zit een droeve waarheid in. Volgens computerwetenschappers en psychologen wordt het zo allemaal een grote eenheidsworst.
Een te grote afhankelijkheid van AI kan uiteindelijk leiden tot minder cognitieve diversiteit, zoals de onderzoekers het omschrijven, en dat is juist iets wat samenlevingen hard nodig hebben.
Standaardisering van taal
“Mensen verschillen in hoe ze schrijven, redeneren en naar de wereld kijken”, zegt hoofdauteur Zhivar Sourati, computerwetenschapper aan de University of Southern California. Maar als mensen hun ideeën uit dezelfde taalmodellen halen, kan die diversiteit verdwijnen.
AI-systemen zijn immers getraind om statistische patronen in taal te herkennen en te reproduceren. Daardoor hanteren ze vaak een relatief uniforme stijl van schrijven en redeneren. Wanneer miljoenen mensen hun teksten laten herschrijven door dezelfde AI, ontstaat er volgens de onderzoekers een soort standaardisering van taal en ideeën.
Dat effect is nu al zichtbaar. Studies laten zien dat teksten die door grote taalmodellen (LLM’s) worden gegenereerd minder variatie bevatten dan teksten die door mensen zijn geschreven. Bovendien weerspiegelen ze vaak vooral de taal, waarden en redeneerstijlen van de westerse wereld, een vrij smalle doorsnede van de wereldbevolking dus.
Minder creativiteit in groepen
Cognitieve diversiteit, waarmee gedoeld wordt op verschillen in perspectieven, denkstijlen en ervaringen, speelt een belangrijke rol bij creativiteit en probleemoplossing. Teams met uiteenlopende ideeën komen vaak tot innovatievere oplossingen dan groepen waarin iedereen hetzelfde denkt.
Juist daarom kan de invloed van AI problematisch worden, zeggen de onderzoekers. Mensen kunnen individueel met een chatbot soms wel meer ideeën genereren, maar wanneer een groep mensen allemaal dezelfde AI gebruikt, geldt het tegenovergestelde: gezamenlijk komen ze tot minder creatieve en minder uiteenlopende ideeën.
Een mogelijke verklaring is dat mensen geneigd zijn de suggesties van een model te volgen. In plaats van actief nieuwe richtingen te verkennen, kiezen gebruikers vaak een AI-voorstel dat goed genoeg is. Daardoor verschuift de creatieve controle langzaam van de gebruiker naar het model.
Subtiele invloed op wat goed redeneren is
De invloed van AI beperkt zich bovendien niet tot taal alleen. Volgens de onderzoekers kunnen chatbots ook onze ideeën over goed redeneren en overtuigend argumenteren veranderen. “De zorg is niet alleen dat taalmodellen bepalen hoe mensen schrijven of spreken”, zegt Sourati. “Ze kunnen ook subtiel herdefiniëren wat wordt gezien als geloofwaardige taal, een correcte visie of zelfs goed redeneren.”
Veel AI-modellen zijn bijvoorbeeld geoptimaliseerd voor lineaire denkprocessen. Daarbij worden redeneringen stap voor stap uitgeschreven. Dat kan nuttig zijn, maar het is niet de enige manier waarop mensen problemen oplossen. Intuïtieve of abstracte denkstijlen kunnen soms juist sneller en effectiever zijn. Als AI-systemen vooral één type redenering stimuleren, kan dat andere denkstijlen naar de achtergrond drukken.
Sociale druk
Zelfs mensen die AI niet direct gebruiken, kunnen de effecten ervan merken. Wanneer grote groepen mensen dezelfde formuleringen, argumenten en redeneringen gebruiken, kan er sociale druk ontstaan om daarin mee te gaan.
“Als veel mensen om mij heen op een bepaalde manier denken en spreken, kan ik het gevoel krijgen dat ik me moet aanpassen”, legt Sourati uit. Dat kan ertoe leiden dat afwijkende perspectieven minder vaak worden uitgesproken, terwijl juist die perspectieven belangrijk zijn voor innovatie.
Meer diversiteit in AI
De oplossing ligt volgens de onderzoekers niet in het vermijden van AI, maar in het verbeteren ervan. Ontwikkelaars moeten bewust meer diversiteit opnemen in de trainingsdata van taalmodellen, niet willekeurige variatie, maar echte menselijke diversiteit in taal, perspectieven en denkstijlen. “Als taalmodellen meer diverse manieren hebben om ideeën en problemen te benaderen, kunnen ze de collectieve intelligentie van onze samenleving juist versterken”, zegt Sourati.
Volgens de onderzoekers is het daarom belangrijk om nu al na te denken over hoe we met AI omgaan. Want hoe krachtiger deze systemen worden en hoe vaker we ze gebruiken, hoe groter hun invloed op de manier waarop we denken. En juist onze diversiteit aan ideeën is een van de belangrijkste menselijke eigenschappen om te beschermen.
We schreven vaker over dit onderwerp, lees bijvoorbeeld ook Chatbots kunnen kiezers een bepaalde richting op duwen: Gigantische verschuivingen mogelijk en Wat werkt beter bij relatieproblemen: je hart uitstorten bij chatbot Amanda of een klassieke schrijfopdracht?. Of lees dit artikel: Nieuwe chatbot maakt psycholoog overbodig: “Niet verwacht dat mensen hem als vriend zouden behandelen“.
Uitgelezen? Luister ook eens naar de Scientias Podcast:

3 uren geleden
1





/s3/static.nrc.nl/wp-content/uploads/2026/03/05101437/060326BIN_2031542143_taakverdeling.jpg)
/s3/static.nrc.nl/wp-content/uploads/2026/03/10154144/100326WET_2032185287_IgNobelprijzen.jpg)
/s3/static.nrc.nl/wp-content/uploads/2026/02/16152508/data110747145-a3ddbf.jpg)
/s3/static.nrc.nl/wp-content/uploads/2026/03/10183836/100326VER_2032194056_bbb.jpg)
/s3/static.nrc.nl/wp-content/uploads/2026/03/10141321/100326WET_2032083953_hitteDEF.jpg)
English (US) ·