Risico's van AI-gebruik door de overheid onvoldoende in kaart gebracht
Gepubliceerd op 17/10/2024 06:00 in Economie
Uit een onderzoek van de Algemene Rekenkamer blijkt dat de overheid op grote schaal gebruik maakt van AI-systemen, maar de risico's hiervan vaak niet volledig bekijkt. Van de 433 AI-systemen die gebruikt of getest worden, worden bij meer dan de helft de mogelijke gevaren niet onderzocht. Momenteel zijn er 120 AI-systemen actief in gebruik.
Slechts vijf procent van deze systemen staat vermeld in het openbare algoritmeregister, dat werd opgezet naar aanleiding van de toeslagenaffaire. Hierdoor werden duizenden gezinnen onterecht beschuldigd van fraude door de Belastingdienst vanwege het gebruik van algoritmes.
Volgens Europese regels moeten alle systemen met een hoog risico uiterlijk in 2026 geregistreerd zijn. Ewout Irrgang van de Rekenkamer waarschuwt dat de risico's worden onderschat en dat er een prikkel is om AI-systemen niet als hoog risico in te schatten.
De meeste AI-systemen kregen de kwalificatie 'minimaal risico', maar dit betekent niet dat ze geen risico's met zich meebrengen, zoals privacyschendingen. Daarnaast is bij ruim een derde van de actieve AI-systemen onduidelijk of ze wel doen wat ze zouden moeten doen.
De overheid maakt gebruik van AI voor verschillende doeleinden, zoals efficiënter werken en het opvangen van personeelstekorten. Zo wordt bijvoorbeeld bij de Dienst Justitiële Inrichtingen geëxperimenteerd met robothonden die cellen inspecteren.
Hoewel AI veel potentie heeft om overheidsdiensten te verbeteren, waarschuwt de Rekenkamer voor serieuze risico's zoals discriminatie en privacyschendingen. Het is volgens hen belangrijk dat er duidelijkheid komt over de inzet van AI, zodat het op een verantwoorde manier gebruikt kan worden.