Onderzoekers van KU Leuven en University College London hebben podcasts gemaakt op basis van wetenschappelijke artikelen, compleet met gesprekken tussen twee presentatoren die moeilijke materie begrijpelijk uitleggen. Alleen: die ‘hosts’ zijn geen mensen. Zowel de inhoud als de stem is volledig gegenereerd door kunstmatige intelligentie. En zoals vaak met AI zit er ook een addertje onder het gras.
Voor dit experiment gebruikte het team NotebookLM, een tool van Google Labs die geschreven tekst omzet in een soort korte podcast. NotebookLM baseert zich strikt op de ingevoerde documenten. De onderzoekers uploaden tien artikelen uit het European Journal of Cardiovascular Nursing. Het ging zowel om originele studies als reviews. Daarna lieten ze de AI ‘Deep Dive Conversations’ maken. Dat zijn podcasts waarin twee ‘hosts’ de inhoud bespreken en samenvatten.
Acht van de tien podcasts waren meteen raak, zonder dat er nog in geknipt moest worden, maar twee moesten worden aangepast vanwege lengte of missende stukken. Uiteindelijk duurden ze tussen de 5 en 17 minuten, gemiddeld zo’n 10 minuten per stuk. Om te testen hoe goed ze waren, stuurden de onderzoekers de podcasts naar de auteurs van de originele studies. Die kregen een vragenlijst en werden daarna geïnterviewd, zonder te weten dat AI achter de microfoon zat. Pas na hun eerste indruk werd dat aan hen bekendgemaakt.
Wat vonden de auteurs?
Hoe vonden de auteurs het resultaat? De meesten waren enthousiast over hoe aantrekkelijk de podcasts waren, zo blijkt uit de studie. De gespreksvorm, met twee hosts die de stof toelichtten met voorbeelden, maakte de wetenschap levendig en begrijpelijk. Sommigen dachten zelfs dat het echte presentatoren met medische kennis waren!
Maar er waren ook zorgen. De podcasts zaten soms flink mis. Zo werd in één geval het doel van een studie verkeerd uitgelegd, en werd obesitas bestempeld als een ‘gewoonte’, een versimpeling die niet klopt. Een andere podcast omschreef het nemen van eigen regie over zorg als ‘behandelingen volgen’, terwijl het juist gaat om zelf keuzes maken. Dat soort fouten kan luisteraars op het verkeerde been zetten.
Daarnaast viel de stijl op. De Amerikaanse toon, vol superlatieven als ‘geweldig’ en ‘revolutionair’, paste niet altijd bij de nuchtere Europese verwachtingen. En dan waren er nog uitspraakfouten van medische termen, die de geloofwaardigheid konden ondermijnen.
Opvallend, ondanks al deze zaken: maar vijf van de tien auteurs hadden door dat het AI was. Zelfs een expert op AI-gebied was verrast. De hints voor degenen die het wel door hadden? Het ontbreken van natuurlijke onderbrekingen en een te gladde gespreksstroom.
Wetenschap voor iedereen
Ondanks deze kanttekeningen zien de onderzoekers kansen. AI-podcasts kunnen wetenschap volgens hen toegankelijker maken, vooral voor patiënten en het brede publiek. De eenvoudige uitleg helpt mensen met visuele beperkingen of moeite met lezen. Twee auteurs merkten op dat het patiënten zelfs een gevoel van verbondenheid kan geven.
Ook voor drukke zorgverleners en wetenschappers zijn ze handig. In plaats van lange artikelen door te spitten, kun je onderweg een samenvatting beluisteren. Maar, zeggen de onderzoekers, dat werkt alleen als de inhoud klopt.
Daarom pleiten ze voor controle. Voordat zo’n podcast de wereld in gaat, moeten de oorspronkelijke auteurs ernaar luisteren. Transparantie is ook essentieel: luisteraars moeten weten dat het AI is en makkelijk bij het originele artikel kunnen. Sommige auteurs willen zelfs een officiële goedkeuring geven.
De toekomst
NotebookLM gebruikt taalmodellen om de tekst te begrijpen en een natuurlijk gesprek te maken, inclusief pauzes en intonatie. Toch is de technologie dus nog niet feilloos. De onderzoekers dromen echter van een toekomst waarin audio-samenvattingen standaard bij wetenschappelijke artikelen komen. Maar dan moeten de fouten eruit, misschien met AI die speciaal is getraind op wetenschappelijke teksten. Tot het zo ver is, blijf je voor betrouwbare wetenschapsverhalen beter even bij ons.