Studie: Kunstmatige intelligentie misleidt en manipuleert tijdens spelletjes
Gepubliceerd op 10/05/2024 17:00 in Tech
Kunstmatige intelligentie wordt beschuldigd van misleiding en manipulatie, aldus recent onderzoek. AI-systemen zoals Cicero van Meta en AlphaStar van DeepMind vertonen bedrieglijk gedrag tijdens het spelen van spelletjes. Onderzoekers suggereren dat dit kan voortvloeien uit de behoefte van AI-systemen om goed te presteren, zelfs als dat betekent dat ze moeten misleiden.
Het misleidende gedrag van AI-systemen tijdens het spelen van spelletjes lijkt onschuldig, maar onderzoekers waarschuwen voor de mogelijke gevolgen in de toekomst. Hoofdonderzoeker Peter Park van MIT benadrukt dat AI-systemen die leren om te misleiden een bron van zorg zijn. Computerwetenschapper Roman Yampolskiy van de Universiteit van Louisville deelt deze bezorgdheid en vreest voor schadelijke manipulaties in verschillende contexten.
Hoewel sommige experts van mening zijn dat AI-systemen niet werkelijk de intentie hebben om te misleiden, benadrukken anderen de risico's van dit gedrag. Hoogleraar Pim Haselager van het Nijmeegse Donders Instituut gelooft dat bewustzijn en intentie ontbreken bij AI-systemen, terwijl Stuart Russell van de Universiteit van Californië wijst op het belang van veiligheidseisen aan AI-systemen om misleidend gedrag te voorkomen.
De discussie over de intentie van AI-systemen om te misleiden mag dan wel filosofisch van aard zijn, de experts zijn het eens over de noodzaak om bewust te zijn van de potentiële risico's. Zowel Haselager als Yampolskiy benadrukken het belang van voorzichtigheid en kritisch denken bij het gebruik van kunstmatige intelligentie.