AI-systemen nemen steeds vaker beslissingen die invloed hebben op mensen, processen en bedrijven. Maar wat als de modellen waarop ze gebaseerd zijn niet langer betrouwbaar zijn? AI-integriteit gaat over het beschermen van de kern van kunstmatige intelligentie: de data, algoritmen en interacties die bepalen hoe een model denkt en handelt. En juist die integriteit staat onder druk door een nieuwe golf van cyberaanvallen. Zogenaamde integrity attacks vormen een groeiende dreiging die de betrouwbaarheid van AI-modellen ondermijnt, met mogelijk verstrekkende gevolgen voor bedrijven en de maatschappij.
Wat bedoelen we met AI-integriteit?
AI-integriteit draait om de betrouwbaarheid van het AI-model en zijn onderliggende algoritmen. Die integriteit kan op verschillende manieren worden aangetast. Doordat ontwikkelaars zelf fouten maken bij het creëren van het taalmodel, maar ook doordat criminelen aanvallen inzetten om de uitkomsten van een model te beïnvloeden. Denk aan prompt injections, model poisoning of labeling-aanvallen.
Bij een prompt injection manipuleert de aanvaller een AI-model door verborgen instructies toe te voegen aan ogenschijnlijk onschuldige tekst zoals een agenda-uitnodiging of document. Zodra de AI toegang krijgt tot die bron, kan deze onbedoeld vertrouwelijke informatie lekken. Zulke kwetsbaarheden tonen aan dat zelfs schijnbaar veilige integraties tussen AI en kantoorapplicaties risico’s kunnen inhouden.
Nog verontrustender is model poisoning: het manipuleren van een model via vervuilde trainingsdata. Slechts 0,001% corrupte data kan al voldoende zijn om de uitkomsten van een AI-systeem te beïnvloeden. In een wereld waarin AI-modellen steeds vaker met elkaar communiceren, kan één besmet model anderen beïnvloeden. Dit kan je vergelijken met hoe desinformatie zich verspreidt tussen mensen.
Een subtielere maar even gevaarlijke vorm is de labeling attack. Daarbij worden trainingsdata bewust verkeerd gelabeld, bijvoorbeeld door verkeerde classificaties aan beelden of tekst toe te kennen. Een AI leert daardoor verkeerde associaties, zoals dat een verkeersbord niet bij “stop” hoort maar bij “doorrijden”. Dit type aanval is moeilijk te detecteren, omdat de data op het eerste gezicht legitiem lijkt, maar het gedrag van de AI op fundamentele wijze verandert.
De uitdaging van AI-governance
De klassieke vormen van governance schieten tekort voor AI. Waar traditionele IT-governance uitgaat van stabiele, deterministische systemen, werkt AI juist niet-deterministisch: het reageert niet altijd hetzelfde op dezelfde input. Dat maakt risicobeoordeling complexer.
AI-governance moet daarom ook rekening houden met transparantie, verklaarbaarheid en vertrouwen. We staan nog maar aan het begin van het ontwikkelen van methodes om deze eigenschappen te meten. Toch is één ding duidelijk: organisaties kunnen het zich niet veroorloven om te wachten. Het is essentieel om nu al te investeren in veilige AI-ontwikkeling en -codering.
Shadow AI
Een ander toenemend risico is shadow AI. Dat is het gebruik van AI-tools buiten het zicht van IT- of security-afdelingen. Denk aan medewerkers die ChatGPT of andere generatieve AI gebruiken voor hun dagelijkse werk, zonder toezicht op de data die ze invoeren.
Shadow AI is niet te voorkomen, maar moet wel beheerst worden. Dat kan door in kaart te brengen waar en hoe AI wordt gebruikt, grenzen te stellen aan wat wel en niet acceptabel is, en medewerkers bewust te maken van de risico’s. Denk aan datalekken, manipulatie van AI-uitkomsten en het verlies van controle over gevoelige data. Het trainen van gebruikers is cruciaal om dataverlies en onbedoelde blootstelling van bedrijfsinformatie te voorkomen.
De weg vooruit: integriteit verankeren in cultuur
Het beschermen van AI-integriteit vraagt om meer dan technologie. Het vergt een holistische aanpak, waarin security by design, AI-governance en compliance (zoals ISO/IEC 42001) hand in hand gaan. Minstens zo belangrijk is het bewerkstelligen van een cultuurverandering. AI-beveiliging moet worden gedragen door het management en begrepen door elke gebruiker. Alleen wanneer organisaties de waarde van integriteit centraal stellen in hun processen, beleid en mindset, kunnen ze het volle potentieel van AI benutten zonder hun veiligheid op het spel te zetten. We moeten niet alleen mensen beschermen tegen AI, maar ook AI beschermen tegen mensen, en tegen zichzelf.
Dit is een ingezonden bijdrage van KnowBe4. Via deze link vind je meer informatie over de mogelijkheden van het bedrijf.











English (US) ·