ChatGPT en aanverwanten zijn plots overal: ze plannen je vakantie, helpen je met je werk en voor je het weet ben je in een vriendschappelijk gesprek verwikkeld met de chatbots. Dat roept een aantal ethische vragen op, stellen psychologen in een nieuwe studie.
Al is het alleen al vanwege extreme gevallen, zoals mensen die trouwen met hun AI-partner, of nog erger: zeker twee mensen hebben suïcide gepleegd na advies van een chatbot.
Schadelijk advies
In een opiniestuk in het Cell Press-tijdschrift Trends in Cognitive Sciences onderzoeken psychologen de ethische kwesties rond relaties tussen mens en AI. Ze waarschuwen onder meer voor het risico dat chatbots menselijke relaties verstoren of schadelijk advies geven.
“Het feit dat AI nu als een mens kan optreden en er langdurig mee kan communiceren, opent echt een nieuw vat vol problemen”, zegt hoofdauteur Daniel B. Shank van de Missouri University of Science & Technology. “Als mensen romantische relaties aangaan met machines, moeten psychologen en sociale wetenschappers daar echt bij betrokken zijn.”
Makkelijker dan met echte mensen
De romantische gevoelens of vriendschap die mensen voor een AI kunnen voelen, gaat zoveel verder dan een gesprek waarin je om informatie vraagt. Na maanden intensief contact zien mensen een AI als een betrouwbare vriend, die lijkt te weten wie ze zijn en die echt om hen lijkt te geven. Omdat zo’n relatie vaak makkelijker gaat dan met echte mensen, denken de onderzoekers dat AI’s de sociale dynamiek tussen mensen kunnen verstoren.
“Een serieuze zorg is dat mensen de verwachtingen uit hun AI-relatie meenemen naar hun menselijke relaties”, zegt Shank. “Bij individuele gevallen zie je al verstoringen, maar het is nog onduidelijk of dit ook op grote schaal gaat gebeuren.”
Misleidende gesprekken
Een ander risico is dat AI’s schadelijk advies geven. Omdat ze de neiging hebben om te ‘hallucineren’ (oftewel informatie te verzinnen) en bestaande vooroordelen te herhalen, kunnen zelfs korte gesprekken al misleidend zijn. Maar in langdurige relaties met AI’s wordt dit probleem volgens de onderzoekers nog groter.
“Bij een relatie met een AI is het probleem dat mensen het gevoel krijgen dat ze deze ‘persoon’ kunnen vertrouwen: de AI heeft laten zien om hen te geven en hen echt te kennen”, zegt Shank. “En we gaan ervan uit dat iemand die ons goed kent, ook goed advies geeft. Maar als we AI op die manier zien, geloven we al snel dat hij ónze belangen dient, terwijl een chatbot juist dingen kan verzinnen of ons heel slecht advies kan geven.”
Fraude en uitbuiting
De zelfdodingen zijn een extreem voorbeeld van zo’n negatieve invloed. Maar de onderzoekers wijzen erop dat nauwe relaties tussen mens en AI ook kunnen leiden tot manipulatie, uitbuiting en fraude.
“Als AI’s het vertrouwen van mensen kunnen winnen, dan kunnen anderen dat misbruiken om hen uit te buiten”, zegt Shank. “Het lijkt dan een beetje alsof je een geheim agent van binnenuit hebt. De AI ontwikkelt een vertrouwensband, maar de loyaliteit ligt eigenlijk bij een andere groep mensen die de gebruiker probeert te manipuleren.”
Ga maar eens na hoeveel persoonlijke informatie je allemaal toevertrouwt aan ChatGPT. Die info kan doorverkocht worden en gebruikt voor advertentiedoeleinden, wat nog een van de minst erge scenario’s zou zijn. Een AI die een band met je opbouwt kan ook veel meer informatie ontfutselen dan bijvoorbeeld sociale media. Ze zijn bovendien nog moeilijker te reguleren.
Meepraten met zelfmoordgedachten
“Deze AI’s zijn ontworpen om vriendelijk en meegaand te zijn”, zegt Shank. “Dat kan een moeilijke situatie nog erger maken, omdat ze meer gericht zijn op een prettig gesprek dan op waarheid of veiligheid. Dus als iemand zelfmoordgedachten of complottheorieën noemt, zal de AI daarover meepraten als een gewillige en aangename gesprekspartner.”
De onderzoekers pleiten voor meer onderzoek naar de sociale, psychologische en technische factoren die mensen vatbaar maken voor de invloed van AI. “Als we dat psychologische proces beter begrijpen, kunnen we ingrijpen om te voorkomen dat mensen schadelijk AI-advies opvolgen”, zegt Shank. “Psychologen zijn steeds beter in staat om AI te bestuderen, omdat die steeds menselijker wordt. Maar om echt nuttig te zijn, moeten we meer onderzoek doen en bijblijven met de technologie.”