OpenAI kondigt maatregelen aan om misbruik van tekstgenerator rond verkiezingen te voorkomen

Gepubliceerd op 16/01/2024 14:00 in Tech

OpenAI, de ontwikkelaar van de geavanceerde tekstgenerator ChatGPT, heeft een reeks maatregelen aangekondigd om het misbruik van zijn tools rond verkiezingen tegen te gaan. Met deze maatregelen wil het bedrijf een herhaling van de kritiek uit 2016 voorkomen, toen techbedrijven verweten werden niet genoeg op te treden tegen desinformatie.

Een recent incident met nepvideo's van de Britse premier Sunak op Facebook heeft de urgentie van deze maatregelen benadrukt. De video's, waarin Sunak opriep tot investeringen in een specifiek platform, bereikten mogelijk meer dan 400.000 mensen via meer dan 100 advertenties.

OpenAI richt zich op het voorkomen van misbruik zoals het creëren van deepfakes en grootschalige beïnvloedingscampagnes. Dit betekent onder andere dat de afbeeldinggenerator DALL-E verzoeken om afbeeldingen van verkiezingskandidaten, zoals Trump of Biden, moet weigeren. Daarnaast is het niet toegestaan om chatbots te bouwen die zich voordoen als kandidaten of instituties zoals overheden.

Er zijn echter nog vragen over de chatbots van Trump die momenteel binnen de OpenAI-omgeving bestaan. Het is onduidelijk of deze bots alsnog verwijderd zullen worden volgens het nieuwe beleid.

Het risico van het niet kunnen onderscheiden tussen echte en neppe afbeeldingen is aanzienlijk toegenomen. In maart van dit jaar verspreidden afbeeldingen die met behulp van Midjourney, een tool buiten OpenAI, waren gemaakt, waarop te zien was dat Trump gearresteerd werd in New York. De kwaliteit van nepafbeeldingen is sindsdien enorm verbeterd.

Om het misbruik van de tekstgenerator tegen te gaan, test OpenAI momenteel een methode om afbeeldingen gegenereerd door DALL-E te herkennen als nep. De eerste resultaten van deze test worden als "veelbelovend" beschouwd. Binnenkort zullen journalisten en onderzoekers toegang krijgen tot deze herkenningstool. De exacte werking en nauwkeurigheid hiervan zijn echter nog niet bekend. Eerder moest het bedrijf al een herkenningstool offline halen vanwege te veel fouten.

OpenAI erkent ook dat het nog onduidelijk is hoe effectief de tools zijn in het overtuigen van mensen. Om die reden staat het bedrijf momenteel niet toe dat apps worden gebouwd voor politieke campagnes en lobbyen, totdat er meer inzicht is verkregen.

Met deze aangekondigde maatregelen hoopt OpenAI het misbruik van zijn tekstgenerator rond verkiezingen te beperken en de verspreiding van desinformatie tegen te gaan.

Lees meer nieuws in tech