Hoe een journalist uitglijdt op door AI verzonnen citaten

3 uren geleden 1

Over AI-gebruik in de journalistiek lopen de meningen sterk uiteen, maar Peter Vandermeersch toonde zich de afgelopen tijd een voorstander. Zo zei de 65-jarige oud-hoofdredacteur van NRC en De Standaard vorig jaar tegen de Vlaamse krant De Morgen dat hij menselijke eindredactie „zodra AI ertoe in staat is” wil afschaffen. Tegelijkertijd bespeurt de journalist – bij het bredere publiek bekend van talkshows als DWDD – risico’s. Zo antwoorden AI-bots als ChatGPT regelmatig fout op vragen over actuele onderwerpen, waarschuwt Vandermeersch op 23 oktober 2025 op zijn Engelstalige weblog. „Onder hun soepele toon ligt een holle kern.”

Vandermeersch blogt sinds begin oktober zo’n twee keer per week over journalistieke kwesties als AI, digitalisering en persvrijheid. Dat doet hij als ‘Fellow Journalism & Society’ bij het Belgische mediaconcern Mediahuis (ook eigenaar van NRC), waar hij tot 1 oktober ceo was van de Ierse tak. Als Fellow stapt hij op diverse fysieke en digitale podia, zoals in januari de talkshow van Eva Jinek. „Peter, jouw nieuwe baan is om je te concentreren op de staat van de journalistiek”, introduceert zij hem. „Je doet er onderzoek naar, je schrijft erover.”

Op dat laatste gebied ging Vandermeersch juist met AI de fout in. „Ik moet het boetekleed aantrekken”, erkent hij tegenover NRC. Uit analyse blijkt dat Vandermeersch fictieve citaten publiceerde op de twee weblogs – een Nederlandstalige en een Engelstalige variant – die hij als Fellow bijhoudt. In 15 van de 53 blogposts die hij schreef, staan citaten die onvindbaar zijn in de publicaties waar Vandermeersch ze vandaan zegt te hebben, zoals nieuwsartikelen en wetenschappelijke onderzoeken. Zeven geciteerden bevestigen dat zij de aan hen toegeschreven uitspraken niet deden in deze publicaties – noch, voor zover ze zich herinneren, elders. Bij elkaar gaat het om tientallen citaten. Vandermeersch’ werkgever Mediahuis laat weten hem tijdelijk te hebben geschorst als fellow.

‘Dit was fout’

Het is bekend dat AI-assistenten inhoud kunnen verzinnen, ook wel ‘hallucineren’ genoemd. In een schriftelijke reactie aan NRC bevestigt Vandermeersch dat de onverifieerbare citaten ontstonden na gebruik van ChatGPT, Perplexity en de AI van Google. „Dat deed ik vooral voor het samenvatten van grotere rapporten”, schrijft hij. „Dat is fout geweest. Ik had die citaten grondiger moeten checken. Ze vatten, denk ik, de betekenis juist samen maar zijn niet letterlijk uitgesproken.” Van twee artikelen besefte hij eind vorig jaar zelf al dat er AI-gegenereerde citaten in stonden. Dit had hij toen al moeten rechtzetten, zegt hij nu: „Juist omdat ik pleit voor transparantie.”

Gert Ysebaert, ceo van Mediahuis, reageert: „Dit had nooit mogen gebeuren. Binnen Mediahuis hanteren we strikte regels voor het gebruik van AI, waarbij zorgvuldigheid, menselijke controle en transparantie cruciaal zijn. Het feit dat deze principes niet werden gevolgd staat haaks op de normen die wij vooropstellen en de belofte aan onze lezers dat we garant staan voor betrouwbare journalistiek. We zijn hierover in gesprek met Peter Vandermeersch en hebben beslist om hem in zijn rol als Fellow tijdelijk te schorsen.”

Peter Vandermeersch is ‘Fellow Journalism & Society’ bij het Belgische mediaconcern Mediahuis.

Foto Frank Ruiter

Lezers kunnen Vandermeersch’ artikelen ook ontvangen als nieuwsbrief: volgens hem hebben beide kanalen zo’n zeshonderd abonnees. Daarnaast verschenen enkele nepcitaten ook in bladen en kranten, waar Vandermeersch regelmatig een van zijn blogs als opiniestuk instuurt. Drie citaten verschenen zo in journalistenvakblad Villamedia, een vierde onder meer in The Irish Independent en in NRC. Het betreft een vermeende uitspraak van de Duitse ceo Mathias Döpfner van mediaconcern Axel Springer. „Kwaliteitsjournalistiek is het fundament waarop AI-bedrijven hun producten bouwen”, zou deze hebben gezegd. Maar die uitspraak is via de bijgevoegde link noch elders terug te vinden.

„NRC heeft strenge richtlijnen voor AI. De technologie gebruiken om tekst te genereren is een absolute no-go”, zegt NRC-hoofdredacteur Patricia Veldhuis. „Onze opinieredactie is hierop bij ingezonden stukken zeer alert, maar in dit geval blijkt een auteur toch in de fout te zijn gegaan. Wij zullen een correctie aan het stuk toevoegen.”

Ontstaan bij samenvatten

De fictieve citaten in de blog van Vandermeersch ontstonden onder meer bij het samenvatten van een artikel van een groep economen, een „indrukwekkend” interview met de hoofdredacteur van The New York Times, en een (online) themanummer van tijdschrift Columbia Journalism Review (CJR), uitgegeven door de gelijknamige universiteit in New York. Zijn blogpost over de CJR-special is één van de twee artikelen waarvan Vandermeersch zelf al had ontdekt dat het was misgegaan.

Uit het nummer, met als thema ‘Journalistiek in 2050’, citeerde Vandermeersch acht internationale mediadeskundigen – maar hun uitspraken noch namen zijn in de special te vinden. CJR en vier van de deskundigen bevestigen dit. 

„Dit is een gefingeerd citaat, ik heb geen quote geleverd voor die uitgave”, zegt bijvoorbeeld journalist Mathew Ingram, die voorheen wel voor CJR werkte. En hoogleraar aan de Northwestern-universiteit Nicholas Diakopoulos kan niet met de eer strijken voor de uitspraak „AI zal journalisten niet vervangen, maar journalisten die AI gebruiken zullen wel de journalisten vervangen die dat niet doen.”

‘Klinkt idioot’

Een derde geciteerde, Emily Bell, zei nooit dat „de volgende grens van journalistiek niet immersieve technologie, maar immersief begrip” is. „Ik hoop in elk geval van niet, want het laat me klinken als een idioot”, zegt de hoogleraar en directeur van het Tow Center for Digital Journalism aan Columbia. Bell erkent dat de aan haar toegeschreven uitspraken geen enorme reputatieschade zullen opleveren, maar het gaat haar om het principe, vertelt ze via Zoom. „Ik wil niet aangesproken kunnen worden op wat ik niet gezegd heb.” In een andere context kunnen de gevolgen volgens haar ernstig zijn. Ze verwijst naar hoe Amerikaanse visa mede worden toegewezen op basis van iemands online uitspraken. „En bewijs maar eens dat je iets níét gezegd hebt.”

CJR-hoofdredacteur Betsy Morais noemt de zaak „raar en verontrustend – zij het niet geheel verrassend, gezien de werking van AI”. Het blad gaat haar lezers erover inlichten. Ook experts die in twee andere artikelen door Vandermeersch geciteerd werden, herkennen desgevraagd hun uitspraken niet.

Human oversight

Universitair docent Hannes Cools (Universiteit van Amsterdam) doet onderzoek naar AI-gebruik op nieuwsredacties en is „niet verrast” dat AI-gebruik door een journalist nepcitaten oplevert. AI-chatbots zijn niet geschikt voor het opzoeken van informatie die kloppend moet zijn, benadrukt hij. Hoewel hij spreekt van „heel kwalijke” fouten, denkt hij dat Vandermeersch zeker niet de enige journalist is die met AI citaten en andere informatie verzamelde in de veronderstelling dat de resultaten authentiek en betrouwbaar zijn. „De AI-geletterdheid in de journalistiek is niet zo hoog als die zou moeten zijn. Dat merk ik in de trainingen die ik geef op nieuwsredacties.”

Het publiceren van onjuiste citaten geldt in de journalistiek als een zwaarwegend vergrijp. ‘Journalisten berichten waarheidsgetrouw, controleerbaar en zo volledig mogelijk’, schrijft de Raad voor de Journalistiek voor. Bij Mediahuis schrijven de interne AI-richtlijnen voor het te vermelden als AI gebruikt is om inhoud te „creëren of aan te passen”, en deze altijd vóór publicatie te controleren. „Dat ‘human oversight’ heeft duidelijk tekortgeschoten”, zegt Vandermeersch.

Dicht bij de werkelijkheid

Eerder ontstond ophef toen tijdschrift Harper’s Bazaar werd betrapt op door ChatGPT geschreven boekrecensies vol onjuistheden over het verhaal, en bleken Belgische glossy’s AI-artikelen te hebben gepresenteerd als door mensen geschreven. Ook in andere sectoren, zoals de advocatuur en de academische wereld, waren er uitglijders. Zo droeg de rector van de Universiteit van Gent een speech voor met fictieve citaten als gevolg van ChatGPT-gebruik.

Kunstmatige intelligentie komt vaak met antwoorden die dicht bij de werkelijkheid liggen. Ook voor veel citaten in Vandermeersch’ stukken gaat dit op. Cools: „Toch is er een fundamenteel verschil tussen de werkelijkheid en wat dicht bij de werkelijkheid ligt. Als we zeggen ‘het had waar kunnen zijn’ zitten we in een soort trumpiaanse situatie.”

Vandermeersch zegt recentelijk veel „strikter” en „terughoudender” te zijn geworden met AI. Eerder was hij „natuurlijk wel op de hoogte van de mogelijkheid tot hallucinaties, maar ik onderschatte duidelijk de kracht ervan.” Hij heeft zijn werkwijze herzien, door AI-samenvattingen nu te gebruiken om te kijken of rapporten of studies interessant zijn en ze dan eventueel zelf te lezen en er handmatig citaten uit te halen.

Mens-machine-mens

Grote mediabedrijven zetten ondertussen stevig in op AI-gebruik door redacteuren, bijvoorbeeld als hulpje bij het bedenken van koppen of invalshoeken. Mediahuis, het concern waar onder meer de uitgever van NRC onder valt, kondigde onlangs zelfs interne experimenten aan met AI die zelfstandig nieuwsartikelen schrijft en waarbij de mens enkel nog het eindresultaat controleert. Dit wordt nog niet in de praktijk toegepast bij Mediahuistitels. NRC-hoofdredacteur Veldhuis benadrukt dat dit bij NRC ook niet gaat gebeuren.

Onderzoeker Cools waarschuwt innoverende nieuwsorganisaties dat het vertrouwen bij het publiek broos is. Uit onderzoek door het Reuters-instituut in zes landen bleek dat 27 procent van de respondenten er niet op vertrouwt dat journalisten AI-gegenereerde berichtgeving controleren voordat ze het publiceren. Ook journalisten zelf zijn onzeker, merkt hij. „Ik hoor vaak: we hebben wel interne AI-richtlijnen, maar deze zijn te vaag en algemeen.”

Bell ziet dat de opkomst van AI-inhoud op het internet journalisten en onderzoekers van goede wil extra werk oplevert. „We zijn veel tijd kwijt aan het wegbikken van alle lagen misinformatie op de werkelijkheid.” Het helpt daarbij niet dat AI-gegenereerde misinformatie op zijn beurt automatisch dient als trainingsinhoud voor nieuwe AI-modellen. „In de woorden van schrijver Cory Doctorow: we stoppen met AI asbest in de muren van de samenleving, die we er later weer uit moeten halen.”

Vandermeersch zelf blijft van mening dat AI de journalistiek veel te bieden heeft. Maar: „Mijn aanvankelijk enthousiasme over wat kon met AI is bekoeld.”

Lees het hele artikel