De Algemene Rekenkamer onderzocht 70 overheidsorganisaties die samen 433 AI-systemen gebruiken en publiceerde een rapport met de bevindingen. Het rapport, Focus op AI bij de rijksoverheid, stelt dat het gebruik van AI door de overheid nog beperkt is; de meeste systemen bevinden zich nog in de experimentele fase. De politie en het UWV (Uitvoeringsinstituut Werknemersverzekeringen) zijn de grootste gebruikers, met respectievelijk 23 en 10 systemen.
Een van de grootste zorgen is dat de risico’s van AI-systemen vaak worden onderschat door overheidsorganisaties.
Dit komt doordat er strengere regels gelden voor systemen die als risicovoller worden geclassificeerd. De Algemene Rekenkamer vermoedt dat dit een prikkel vormt voor organisaties om de risico’s te bagatelliseren. Het rapport noemt als voorbeeld een systeem dat wordt gebruikt om uitkeringen voor kwetsbare huishoudens te reguleren, dat inherent risicovoller is dan een systeem dat bedoeld is voor het samenvatten van officiële teksten. De Algemene Rekenkamer pleit voor de invoering van toezicht- en controlemiddelen bij het gebruik van AI-systemen.
Daarnaast blijkt dat organisaties vaak niet goed kunnen bepalen of hun AI-systemen presteren zoals bedoeld. Deze onduidelijkheid komt voort uit het ontbreken van duidelijke doelstellingen voor de systemen vooraf.
Er zijn ook enkele specifieke voorbeelden van problematisch AI-gebruik door de overheid. Een voorbeeld is de gemeente Rotterdam, die een algoritme gebruikte om bijstandsfraude te voorspellen. De criteria van het algoritme voor het bepalen van risicoscores omvatten factoren zoals geslacht, buurt, taalvaardigheid en zelfs indicaties van psychische en financiële problemen, wat zorgen opriep over mogelijke discriminatie. Inmiddels heeft de gemeente enkele controversiële variabelen uit het algoritme verwijderd, zoals taal, geslacht en medische of psychische kwesties, maar de woonbuurt blijft een factor in de risicoanalyse.
Een andere zorg is het potentieel van AI-risicomodellen om een zichzelf versterkende feedbackloop te creëren. Deze modellen gebruiken historische gegevens om de kans op toekomstige overtredingen te voorspellen, wat kan leiden tot een verhoogde controle van personen of groepen die als risicovoller worden beschouwd. Dit kan ertoe leiden dat bepaalde groepen onevenredig worden onderzocht, zelfs als hun werkelijke kans op het plegen van een overtreding niet hoger is dan die van andere groepen. Deze feedbackloop kan bestaande vooroordelen in stand houden en versterken, wat tot oneerlijke uitkomsten leidt.
Ondanks deze zorgen worden de potentiële voordelen van AI voor de overheid erkend. AI-systemen kunnen taken automatiseren, zoals het verwerken van grote hoeveelheden informatie, spraak-naar-tekst conversie en het samenvatten van officiële teksten, wat tijd en geld kan besparen. Het Nationaal Cyber Security Centrum (NCSC) pleit ervoor om nieuwe technologieën, waaronder AI, te omarmen. Het NCSC stelt dat tegenstanders al AI gebruiken en dat Nederland moet bijblijven om d e nationale veiligheid te waarborgen.
Create an abstract painting using 2 tones, taking inspiration from the natural world as seen through the lens of modern American artists. with soft transitions between colors purple and green. The composition should feel dynamic and alive,
Upscale (S) ar 4:3