De eindscriptie had de kroon op zijn academische loopbaan moeten zijn. Maar de begeleider van de Amsterdamse student vermoedde AI-fraude en na onderzoek ging de examencommissie daar in mee: de scriptie werd ongeldig verklaard, hij moest komend academisch jaar aan een nieuwe beginnen. De , die de fraude ontkent, tekende administratief beroep aan bij het College van Beroep voor de Examens (CBE).
En dus meldt de student zich met zijn advocaat op een donderdagochtend bij de receptie van het Maagdenhuis; ooit weeshuis voor katholieke meisjes, nu het bestuurlijk centrum van de Universiteit van Amsterdam (UvA). Aan de ronde houten tafel in het aangewezen vergaderzaaltje scheidt een lege stoel hem van vier examencommissieleden – onder wie docenten bij wie hij vakken heeft gevolgd. De sfeer is gespannen, er worden vooraf geen groeten of vriendelijke woorden gewisseld. CBE-voorzitter Maarten Mathon aan de andere kant van de tafel kijkt links, rechts, naar zijn twee collega’s en vouwt zijn handen samen: de hoorzitting gaat beginnen.
Gebrekkig Engels dat plots overgaat in Engels van uitzonderlijk academisch niveau; een mondelinge bespreking waarin de student zijn eigen werk nauwelijks kon toelichten; verschillende passages die volgens een detectiesysteem door AI zijn gegenereerd: volgens examencommissievoorzitter Han Peters is er „geen twijfel over mogelijk” dat de student AI-fraude pleegde tijdens het schrijven van zijn scriptie. Natuurlijk, erkent Peters, valt AI-gebruik „moeilijk te bewijzen” en biedt alleen het „achter zijn laptop betrappen” van de student volledige zekerheid. Desondanks is de examencommissie overtuigd van haar zaak. De student hoort het aan, hevig ‘nee’ schuddend.
Nog geen twintig minuten later staat hij weer buiten. Frauduleus AI-gebruik kon niet buiten gerede twijfel worden gesteld en dus wordt de student in het gelijk gesteld, laat de griffier de volgende dag weten.
Chatbot als studiepartner
ChatGPT, door veel studenten onderhand liefkozend ‘Chat’ genoemd, is razendsnel het hoger onderwijs binnengedrongen. De ‘generatieve’ AI verschilt fundamenteel van eerdere technologische innovaties als rekenmachine, spellingscontrole en vertaalprogramma’s: zij is in staat zelf ideeën, argumentaties en teksten voort te brengen. Zo kan zij taken en vaardigheden overnemen die het hoger onderwijs juist beoogt te ontwikkelen: zelfstandig, kritisch en onafhankelijk denken, schrijven en redeneren en het bedenken van originele invalshoeken.
Ruim vier op de vijf studenten heeft weleens voor zijn studie gebruik gemaakt van geavanceerde AI-chatbots, blijkt uit onder ruim 1.633 studenten. De chatbots fungeren als studiepartner bij het maken van samenvattingen, het beantwoorden van vragen en bij brainstorms. En vooral: als schrijfhulp.
Parallel aan de opkomst van AI is het aantal fraudemeldingen universiteiten fors gestegen, onder de faculteiten geesteswetenschappen van de vier grootste Nederlandse universiteiten. Alleen vorig jaar al werden 372 meldingen geregistreerd, ten opzichte van 221 het jaar ervoor. In een schriftelijke reactie op vragen van NRC schrijft de examencommissie te dat het merendeel van de meldingen AI betreft – tot voor kort hield de commissie dat niet bij. „De plotselinge beschikbaarheid en kracht” van generatieve AI heeft ook de Universiteit Utrecht „overrompeld”, laat de examencommissie van geesteswetenschappen weten. Van de 195 fraudezaken in studiejaar 2024-2025 waren er 110 AI-gerelateerd. (UL) waren er bij die faculteit in datzelfde jaar 152 gevallen, waarvan 79 AI-gerelateerd.
De examencommissie van de Rijksuniversiteit Groningen (RUG) – die universiteit heeft geen faculteit Geesteswetenschappen – noemt de opkomst van AI als belangrijkste reden voor de jaarlijkse toename in het aantal fraudezaken. Een geringe toename in het afgelopen academisch jaar – 83 zaken ten opzichte van – komt doordat studenten steeds beter worden in het toepassen en maskeren van het gebruik van generatieve AI, vermoedt de examencommissie.
, ziet emeritus universitair hoofddocent bestuurs- en organisatiewetenschap aan de Universiteit Utrecht , die onderzoek doet naar verantwoord AI-gebruik in het hoger onderwijs. „Als iemand een kennistoets, essay of scriptie , wat lezen we daar dan eigenlijk nog? Wíé lezen we daar dan eigenlijk nog?”
Volgens Kelly Beekman, lector technology-enhanced learning & assessment bij Fontys Hogeschool, kan een flitsend betoog het resultaat zijn van wekenlang studeren en redeneren, maar net zo goed van een uitstekend geformuleerde prompt – de instructie, vraag, of tekst die je aan AI geeft om output te genereren. „De docent beoordeelt wat er op papier staat, maar heeft geen zicht op hoe het tot stand is gekomen.”
Generatieve AI zet de toetsing in het hoger onderwijs volledig op losse schroeven. Hoeveel waarde heeft een scriptie nog, ?
‘Het is fijn als AI met ideeën komt’
„Je bent echt dom als je geen AI gebruikt”, . Haar naam mag niet in de krant, ze is nog bezig met haar scriptie. Daarbij gebruikt ze Chat, om haar zelf geschreven tekst te verbeteren aangezien haar Engels „niet altijd even vloeiend is”. Dus AI helpt „met het maken van mooiere zinnen, of het verbinden van alinea’s”. Al sinds het begin van haar studie gebruikt ze ChatGPT, dat inmiddels haar schrijfstijl kent en kopieert. De UvA-student denkt wel zonder AI een scriptie te kunnen schrijven, „maar dan loop je achter op de rest”.
Een 23-jarige student international development studies van dezelfde universiteit, , gebruikt AI voor het schrijven van opdrachten. „Maar ik wil wel mijn persoonlijke touch houden, dus ik herschrijf de tekst een beetje na het kopiëren en plakken.” Hoewel hij zijn studierichting zelf heeft gekozen, vindt hij niet alles even interessant. „Ik heb niet over alle onderwerpen eigen gedachten, dan is het fijn als AI met ideeën komt.” Naast enorme voordelen ziet hij ook een enkel nadeel. „Het enige zorgwekkende is dat ik door Chat niet al mijn hersens in iets steek. En van de opdrachten die ik door Chat laat doen, onthoud ik maar weinig.”
Die vrees wordt gedeeld door een meerderheid van de 1.633 door de Utrechtse universiteit ondervraagde studenten. Zij vrezen dat het gebruik van kunstmatige intelligentie ten koste gaat van hun vermogen tot kritisch denken en problemen oplossen. Tegelijkertijd missen studenten duidelijkheid over de kaders waarbinnen ze AI kunnen gebruiken: slechts 2 procent ervaart de huidige begeleiding en ondersteuning als afdoende. Universitaire AI-richtlijnen benadrukken de eindverantwoordelijkheid van de student en schrijven voor transparant te zijn over wat gedaan is met behulp van AI. ‘Gebruiken mag, misbruiken niet’, is de mantra.
Hoeders van het diploma
De wettelijk verplichte examencommissies zijn binnen universiteiten en hogescholen verantwoordelijk voor het niveau van tentamens en diploma’s. Ook het opsporen van fraude behoort tot hun taken. In het in december verschenen rapport Verder vooruit: Examencommissies in een veranderend hoger onderwijs constateert de Inspectie van het Onderwijs dat de opkomst van AI voor de examencommissies „een risico voor de validiteit en betrouwbaarheid van toetsen” met zich meebrengt en ook „een verhoogd risico op moeilijk detecteerbare fraude”.
Volgens het inspectierapport heeft inmiddels van de examencommissies in Nederland te maken met AI-gerelateerde fraudezaken. En deze vorm van fraude is volgens te bewijzen dan ‘conventioneel’ plagiaat waarbij andermans teksten worden overgenomen. Universiteiten en hogescholen hebben plots te maken met een alomtegenwoordige ghostwriter.
, voorzitter van de examencommissie Letteren aan de universiteit in Groningen, herkent het beeld. „Schrijven ís het onderzoek, in ons vak. Het is duidelijk dat daar voor ons echt een opdracht zit.”
Marrigje Paijmans, gedelegeerde van de examencommissie Nederlandse taal en cultuur aan de UvA: „Docenten willen na een aangifte graag horen of een student wel of niet schuldig is gebleken. Maar de examencommissie waakt ervoor studenten eventueel onterecht te beschuldigen – ze wil ook zeker geen gigantisch schandaal creëren.”
Universiteiten en hogescholen hebben plots te maken met een alomtegenwoordige ghostwriter
Er zijn , maar die blijken in de praktijk niet bruikbaar als sluitend bewijsmiddel. De systemen produceren zogeheten false positives: het werk van een student wordt regelmatig onterecht aangemerkt als door AI gegenereerd. Bovendien zijn de detectiesystemen eenvoudig te omzeilen middels , zoals synoniemen. Om die redenen stelt de RUG in haar AI-beleid expliciet dat de uitkomsten van dit soort AI-detectiesystemen niet als bewijs voor fraude kunnen dienen. Examinatoren moeten zelf de authenticiteit van een toets of schrijfsel beoordelen, en een vermoeden van fraude melden aan de examencommissie.
Achternaam, huidskleur, taalgebruik
AI-fraude komt vooral aan het licht door ‘slordig’ gebruik van generatieve AI: het opnemen van niet-bestaande bronnen in een bibliografie, of : „Is er nog iets anders dat ik voor je kan doen?” Maar volgens zijn er ook tekstuele kenmerken waarop een docent kan letten. „Je kunt AI-gebruik herkennen aan een vlakke, algemene stijl en die sterk afwijken van het studiemateriaal”, zegt ze. „Ook , zoals het gedachtestreepje, en apostrofs, kunnen aanwijzingen zijn.” Maar, benadrukt ze, het blijft vaak giswerk. „Dan is het vooral een soort intuïtie.”
bij het herkennen van fraude. „Als je een vakgebied goed kent, voel je eerder nattigheid”, aldus voorzitter Van den Hoogen. Dat werkt ook de andere kant op. „Als je geen nattigheid voelt, dan ga je ook niet zoeken.”
Volgens Paijmans brengt de grote rol van docenten bij het signaleren van fraude met zich mee dat onbewuste vooroordelen van invloed kunnen zijn. „De achternaam, de huidskleur en het taalgebruik van de student, spelen allemaal mee”, aldus Paijmans. „Eigenlijk zou iedereen in de examencommissie een cursus in het herkennen van de eigen bias moeten volgen. Maar ja, kan je dat vragen van ?”
Ook , die als hoger onderwijsjurist jaarlijks meer dan honderd studenten bijstaat in fraudezaken, waarvan ongeveer de helft AI-gerelateerd, ziet hoe afkomst een rol kan spelen. „Ik krijg regelmatig studenten met een migratieachtergrond, Turks, Syrisch, Marokkaans, van wie wordt gezegd: jij kan dit niet geschreven hebben”, zegt hij. „Eigenlijk wordt dan gezegd: we geloven niet dat jij zulke taal gebruikt of zo’n goed onderzoek hebt uitgevoerd.”
Geen smoking gun
Nadat een docent met een vermoeden van AI-fraude heeft aangeklopt bij de examencommissie, begint zij een onderzoek. Als de examencommissie de verdenking gegrond acht, wordt de betreffende student om wederhoor gevraagd middels zogeheten authenticiteitsgesprekken: een mondeling waarin studenten moeten aantonen dat het ingeleverde werk daadwerkelijk van eigen makelij is, door vragen te beantwoorden over de inhoud, de gebruikte bronnen en de totstandkoming van het werk.
„Als wij ingrijpen, is dat een educatieve beslissing”, zegt Van den Hoogen van de Rijksuniversiteit Groningen. „Er is iets misgegaan, en dat betekent dat een student nog iets moet leren, iets wat andere studenten misschien al hebben opgepikt, of slimmer hebben aangepakt.” Sancties zijn bedoeld als een correctie. „Het is geen juridisch traject waar je jaren last van hebt. Het is een ingreep waardoor de student begrijpt: dit heb ik gedaan, dit is niet de bedoeling, en daar horen consequenties bij.”
Wie het oneens is met de uitkomst van een – een waarschuwing, uitsluiting van een vak of studiejaar – kan in beroep gaan bij het College van Beroep voor de Examens (CBE). Daarna resteert nog één optie: de afdeling bestuursrechtspraak van de Raad van State.
Die stap naar de hoogste bestuursrechter van Nederland is voor veel studenten een drempel, ziet advocaat Casper van Vliet. „Juridisch hebben mijn cliënten vaak best een poot om op te staan, maar dan moeten ze misschien wel driekwart jaar wachten op een uitspraak.” Dat is binnen de juridische kaders redelijk snel, maar kan in een studentenjaar nog best lang duren. „Studenten denken dan toch vaak: ‘ik wil klaar zijn met deze studie’.” : „De Raad van State voelt toch als een intimiderend instituut.” De kosten van zo’n proces zijn afhankelijk van de vorm van rechtsbijstand. Als een student kiest voor een sociale advocaat, betaalt hij de reiskosten en de griffiekosten. In een studentenzaak is dat 53 euro.
Toch kan het de student volgens Van Vliet zeker iets opleveren: ook in de rechtszaal blijken AI-verdenkingen moeilijk hard te maken. Volgens de raadsman schiet het onderzoek vaak tekort. „Het is vaak lopendebandwerk. Er worden heel snel aannames gedaan, terwijl het tijd kost een verdenking juridisch te onderbouwen.”
De ‘authenticiteitsgesprekken’, waarin studenten hun werk bij een fraudeverdenking moet toelichten, zijn niet per se in hun voordeel
Voor een adequate onderbouwing zouden examencommissies volgens hem alle eerdere toetsen en werkstukken van een student kunnen analyseren op taalgebruik, stijl en methodiek. Wijkt het stuk af? Dan heb je mogelijk steunbewijs. Maar zelfs dat is volgens hem niet voldoende. „Er is geen heterdaad. Geen smoking gun”, zegt Van Vliet. „Het gebruik van AI staat eigenlijk nooit onomstotelijk vast, tenzij een student zelf bekent AI gebruikt te hebben.”
Daardoor zijn de authenticiteitsgesprekken niet per se in het voordeel van de student. en om vermoedens weg te nemen, is het voor de examencommissie tegelijkertijd een manier om bewijs te verzamelen voor eventuele procedures bij het CBE of de Raad van State. „Dit klemt temeer nu studenten sinds enige tijd niet meer op hun zwijgrecht hoeven worden gewezen, terwijl ze dat recht nog wel hebben”, aldus de raadsman.
Van kennis naar proces
Hoewel authenticiteitsgesprekken piepen en kraken, blijven ze de modus operandi om AI-fraude vast te stellen. Daar moeten we vanaf, zegt Eugène Loos. „Je moet , zodat het helemaal niet op het bord van de examencommissie hoeft te komen.”
Daarvoor moet het onderwijs volgens Loos op de schop. Maar: „Het duurt twee jaar voordat studenten de technologie doorgronden, nog drie voor docenten doorhebben dat studenten het gebruiken, en nog eens vijf voor de universiteit denkt te weten wat ermee te doen”.
Loos ziet verschillende mogelijkheden. Is AI-gebruik (gedeeltelijk) toegestaan in een vak of toets? „Dan kun je studenten verplichten om te laten zien hoe ze de tool gebruikt hebben, door een bijlage van de conversatie met de chatbot op te vragen”, aldus Loos. Wil een docent het gebruik van AI uitsluiten, dan ligt de sleutel volgens hem bij slimmere toetsing. „Je zult je toets zo moeten maken dat die heel specifiek en actueel is. Chatbots kunnen in deze fase nog niet alles, dus dan gaan ze fouten maken en dingen verzinnen.”
De eerste verandering begint zich voorzichtig af te tekenen, ziet ook de examencommissie van de Groningse universiteit. „We hebben in onze examenregelingen toegevoegd dat een docent bij de verdenking van fraude altijd het recht heeft om te overhoren”, zegt Van den Hoogen. Volgens , vice-decaan van de faculteit geesteswetenschappen en universitair hoofddocent geschiedenis aan de Universiteit Leiden, zou „een harde eis” moeten worden. Eindprojecten k. „Als AI steeds meer kan, moet een verplicht procesonderdeel worden.”
Toch ontbreekt deze „harde eis” nog in de examenreglementen van de meeste opleidingen. „We zitten in een overgangsfase”, aldus Touwen over zijn universiteit, „en daarin zullen wel eens dingen fout gaan”. Toch helpen regels die het gebruik van generatieve AI geheel verbieden daar volgens hem niet bij. „enten Dus daar zal een aanpassing op moeten komen.
Dat op korte termijn uitblijven is geen onwil maar onmacht, benadrukt voorzitter Van den Hoogen van de examencommissie Letteren aan de RUG. „De bezuinigingen in het onderwijs helpen absoluut niet om nieuw beleid te ontwikkelen. Sterker nog, daardoor staat het stil.” Terwijl hervormingen hard nodig zijn, ziet ook de commissie. „De opkomst van AI vraa om een nieuwe vorm van onderwijs.”
De journalistieke principes van NRC



/s3/static.nrc.nl/wp-content/uploads/2026/01/07124249/070126BIN_2026204131_donor2.jpg)

English (US) ·