Onderzoek toont aan: AI-chatbots falen bij moderatie van verkiezingsinformatie
Gepubliceerd op 05/08/2024 11:00 in Tech
Uit nieuw onderzoek van AI Forensics blijkt dat AI-chatbots, die zo zijn ingesteld dat ze geen vragen over verkiezingen beantwoorden, nog steeds niet effectief zijn. Voor de Europese verkiezingen hadden Microsoft en Google hun chatbots beperkt, maar deze restricties blijken niet goed te werken.
CoPilot, de AI-chatbot van Microsoft, blokkeert slechts ongeveer de helft van de verkiezingsgerelateerde vragen. Volgens hoogleraar Claes de Vreese van de Universiteit van Amsterdam, geven chatbots vaak onjuiste informatie en volgen ze de richtlijnen niet goed.
Gemini van Google bleek het meest consistent, waar 98 procent van de verkiezingsvragen niet werden beantwoord. ChatGPT van OpenAI past helemaal geen moderatie toe op verkiezingsgerelateerde vragen.
Het onderzoek toonde ook aan dat er grote verschillen waren in moderatie per taal en per chatbot. De Engelstalige markt kreeg bijvoorbeeld meer prioriteit dan andere markten. Daarnaast was de moderatie effectiever bij vragen over Amerikaanse verkiezingen dan over Europese verkiezingen.
De versies van Gemini en ChatGPT die door softwareontwikkelaars worden gebruikt, passen helemaal geen moderatie toe op verkiezingsgerelateerde vragen. Dit kan leiden tot een gebrek aan transparantie en toezicht.
De Europese Commissie onderzoekt nu of de AI-chatbots van Microsoft en de maatregelen van Facebook en Instagram rond de Europese verkiezingen voldoende zijn. De Commissie vermoedt dat de chatbot van Microsoft de Europese wet overtreedt die misinformatie moet tegengaan.
Volgens De Vreese is het gebruik van AI-technologie in verkiezingen en democratie nog volop in ontwikkeling. Het laat zien dat zowel de technologie als de spelregels voortdurend in beweging zijn.