null Beeld

CommentaarBelastingdienst

Hoe een algoritmefuik drama’s veroorzaakt

De fnuikende werking van algoritmes is opnieuw naar boven gekomen bij de Belastingdienst. Onder de groep mensen bij wie een verhoogde kans zou bestaan op fraude doken opvallend veel lage inkomens op. De precieze oorzaak is onduidelijk, al is wel gebleken dat het algoritme dat de selectie bepaalt, is getest op een volstrekt ondeugdelijke database met vermeende fraudeurs. Garbage in, garbage out, zeggen de Engelsen in zo’n geval: wie een model baseert op onzin, krijgt er slechts onzin uit.

Dat algoritmes schadelijk kunnen uitpakken, blijkt ook bij sociale media. Die leiden de gebruiker een fuik in met vergelijkbare boodschappen of filmpjes, steeds net iets extremer. Een tunnel met steeds minder alternatieve visies op de werkelijkheid. Dat kan dramatische gevolgen hebben, bijvoorbeeld als zo vijandbeelden worden versterkt, of complottheorieën worden bevestigd.

In het geval van overheden komt bovenop het gebruik van algoritmes de inzet van staatsmacht. En die macht was in het geval van de Belastingdienst enorm. Algoritmes waren zeker niet het enige probleem in de Toeslagenaffaire, maar de wijze waarop selectiecriteria zichzelf steeds bevestigen zorgde ervoor dat de macht van de overheid zich bovenmatig op een specifieke groep richtte. Met hier als uitkomst dat opvallend veel mensen met een laag inkomen werden getroffen, juist de groep die niet kan voldoen aan de keiharde eisen tot terugbetaling bij veronderstelde fraude met toeslagen.

Terughoudend

Er is dan ook alle reden terughoudend te zijn met de inzet van algoritmes door de overheid. Want het gaat vaker mis. Zo is een algoritme door de gemeente Nissewaard ingezet tegen mogelijke bijstandsfraude, terwijl de achterliggende selectie van de te onderzoeken burgers in nevelen gehuld bleef – reden om ermee te stoppen. De Rekenkamer in Rotterdam concludeerde dat discriminatie de algoritmes in kon sluipen, niet zozeer direct (afkomst, geslacht, nationaliteit mogen er niet in zitten), maar wel indirect via laaggeletterdheid. Op basis van een serie van dit soort Nederlandse voorbeelden waarschuwde Amnesty vorige maand de VN voor de gevaren van algoritmes bij de overheid.

Register van algoritmes

Zijn er oplossingen? De Rotterdamse Rekenkamer bepleit een register van algoritmes, zodat controleerbaar is welke er zijn en hoe ze zijn opgebouwd. Amsterdam beschikt al over zoiets, maar het vereist wel heel veel kennis over de werking van algoritmes bij de gemeenten zelf.

Hoe dan ook moet iedere inzet van algoritmes worden getoetst met willekeurige steekproeven. En vooral met de inzet van gezond verstand: wie een serieuze oververtegenwoordiging van groepen mensen aantreft, moet zich voortdurend afvragen of hij niet door een veel te nauwe tunnel naar de werkelijkheid zit te kijken.

Het commentaar is de mening van Trouw, verwoord door leden van de hoofdredactie en senior redacteuren.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2021 DPG Media B.V. - alle rechten voorbehouden