Opkomst van deepfakes zorgt voor nieuwe uitdagingen en risico's
Gepubliceerd op 08/10/2023 11:00 in Tech
Topman van online bank Bunq, Ali Niknam, heeft onlangs een opmerkelijke ervaring gehad met een deepfake video gemaakt met behulp van kunstmatige intelligentie (AI). In de video vroeg de 'baas' Niknams medewerker om een geldbedrag over te maken. Gelukkig trapte de medewerker hier niet in. Niknam deelde zijn verhaal om anderen bewust te maken van de risico's van deepfakes.
CEO-fraude, waarbij criminelen zich voordoen als de baas om medewerkers geld over te laten maken, bestaat al langer. Wat deze zaak echter bijzonder maakte, is dat het gebruikmaakte van AI om een overtuigende deepfake video te creëren. Frank Groenewegen, partner Cyber Risk bij Deloitte, geeft aan dat dergelijke simulaties regelmatig worden besproken tijdens vergaderingen met klanten. Hij wijst op het potentieel van dit soort video's om de beurs te beïnvloeden, bijvoorbeeld door het verspreiden van nepnieuws over bedrijfsresultaten.
Bunq is niet het enige bedrijf dat hiermee te maken heeft. Ook bekendheden zoals Tom Hanks, Gayle King en youtuber Jimmy Donaldson hebben gewaarschuwd voor de opkomst van deepfakes. Donaldson noemt het zelfs een serieus probleem en twijfelt of sociale media wel klaar zijn om hiermee om te gaan. Tegelijkertijd wordt AI ook positief ingezet in de filmindustrie, zoals bij het verjongen van acteurs, zoals Hanks nu doet in de film "Here".
Deepfakes, met behulp van generatieve AI, bestaan al jaren, maar worden door de voortdurende ontwikkelingen steeds realistischer. Theo Gevers, hoogleraar computer vision aan de Universiteit van Amsterdam, legt uit dat de stemmen in deepfake video's nu ook zeer realistisch kunnen worden gekloond. Dit maakt het nog moeilijker om deepfakes te herkennen, omdat detectietools achterlopen bij de nieuwe generatie deepfakes.
Deze ontwikkeling baart ook zorgen met het oog op verkiezingen. In Slowakije werden onlangs deepfakevideo's verspreid op sociale media, waarbij de indruk werd gewekt dat een politicus stemmen aan het kopen was. Factcheckers concludeerden echter dat de audio nep was. Olya Kudina, universitair hoofddocent ethiek en filosofie van technologie aan de TU Delft, stelt dat het vermogen om echt en nep van elkaar te onderscheiden groter is dan we denken. Het herkennen van gemanipuleerde video's hangt vaak af van de context waarin iets wordt gezegd.
Kudina waarschuwt echter wel dat deepfakes nog steeds een gevaar vormen. Ze benadrukt dat mensen niet alleen naar de video zelf moeten kijken, maar ook naar de context om te bepalen of iets echt of nep is. Het verhaal van Bunq laat zien dat het volgen van de juiste protocollen en het bewustzijn van de situatie kunnen helpen om deepfakes te identificeren en te vermijden.
Met de toenemende kwaliteit en toegankelijkheid van deepfakes in de komende maanden, is het belangrijk dat bedrijven en individuen zich bewust zijn van de risico's en maatregelen nemen om zichzelf te beschermen. Het fenomeen van deepfakes brengt nieuwe uitdagingen met zich mee, waarbij de technologie zowel misbruikt als benut kan worden. Het is van essentieel belang om alert te blijven en de technologische ontwikkelingen op de voet te volgen om dit probleem effectief aan te pakken.