OpinieAlgoritmes

Angst voor algoritmes is onterecht: ‘discriminerend’ algoritme geeft slechts weer wat mensen denken

null Beeld
Beeld

Angst voor algoritmes is onterecht. Ze kunnen de overheid juist helpen om goed en rechtvaardig beleid te voeren, betoogt Christian Verhagen, adviseur Data & Analytics Publieke Sector bij Verdonk, Klooster & Associates.

Christian Verhagen

We hebben de neiging menselijke eigenschappen aan algoritmes toe te dichten, maar het zijn niet meer dan wiskundige formules die we gebruiken om complexe berekeningen te maken. Toch wordt met achterdocht naar algoritmes gekeken. Ze zouden discriminatie in de hand werken en burgers bij voorbaat verdacht maken. D66 en het CDA pleitten onlangs zelfs voor een speciale waakhond naar aanleiding van berichtgeving van de NOS over het algoritmegebruik van de overheid.

De collectieve angst voor algoritmes die lijkt te zijn ontstaan is echter onterecht. We moeten het gebruik van algoritmes door de overheid juist toejuichen. Ze ondersteunen overheden bij het opsporen en voorspellen van bijvoorbeeld fraude of geven inzicht in de kans dat iemand in de schuldhulpverlening dreigt te komen. Dit is geen nieuw fenomeen, maar de gebruikte algoritmes zijn wel complexer geworden.

Niet racistisch

Desondanks blijven het algoritmes, getraind op basis van door mensen ingegeven data. Toen in Florida een algoritme om recidive te voorspellen ten onrechte Afro-Amerikanen een hoger risico toekende, was dat niet omdat het algoritme racistisch was. De bias zat in de dataset waarop het algoritme was getraind en was daarmee een afspiegeling van bestaande vooroordelen.

Ook bij het onterecht stopzetten van toeslagen door de Belastingdienst, als gevolg van verondersteld etnisch profileren, zijn mogelijk bestaande vooroordelen onderdeel gaan uitmaken van het gebruikte algoritme. Na de Bulgarenfraude in 2013 is de Belastingdienst extra scherp gaan controleren door te werken met fraude-profielen. Hierdoor kan gerichter worden gecontroleerd om misbruik en fraude bij toeslagen tegen te gaan. In dit geval lijken er echter data te zijn gebruikt (over een tweede nationaliteit) die niet gebruikt hadden mogen worden. Daarnaast zijn vermoedens direct als feit geïnterpreteerd. Dit probleem ligt dieper in de organisatie dan het algoritme dat is gebruikt, maar heeft hier wel effect op.

Algoritmes zijn dus niet altijd neutraal, noch hebben ze altijd gelijk. Maar het alternatief waarin afwegingen door de mens worden gemaakt, is evenmin neutraal of altijd juist. Door te kijken naar patronen en verbanden in data zijn we juist in staat om bestaande vooroordelen bloot te leggen en besluitvorming te objectiveren.

Vierde macht

Toch wordt al snel bij algoritmes het schrikbeeld opgeroepen van zelflerende en ondoorzichtige black boxes en computer says no-taferelen. Het bestempelen van algoritmes als ‘vierde macht’, door Marlies van Eck van de Universiteit Leiden (Trouw, 19 juni), versterkt dit schrikbeeld en verdient ook enige nuance.

In veel gevallen gaat het bij overheidsorganisaties om relatief eenvoudige algoritmes op basis van beperkte hoeveelheden data. Als vervolgens sprake is van onwaarschijnlijke combinaties of uitschieters in de data, wordt een onderzoek opgestart waarbij getoetst wordt of er daadwerkelijk iets aan de hand is. Van geautomatiseerd beslissen door het algoritme is geen sprake en binnen de huidige wet- en regelgeving – waaronder de AVG – zijn voldoende waarborgen om willekeur en discriminatie tegen te gaan.

Toch is het verstandig om ons bewust te zijn van de risico’s van het lukraak inzetten van algoritmes. Bewustzijn en begrip van de technologie zijn nodig om tot goede ethische afwegingen te komen binnen de huidige wetgeving. Politieke aandacht is nodig, maar doorschieten in toezichthouders of wetgeving zou het kind met het badwater weggooien.

Het gebruik van algoritmes en kunstmatige intelligentie biedt een enorm potentieel om maatschappelijke uitdagingen effectiever aan te pakken.

Lees ook:

‘Algoritmes zijn een vierde macht, waarvoor geen regels gelden’

Hoog tijd voor een waakhond die de overheid controleert op gebruik van algoritmes, zegt de Leidse onderzoekster Marlies van Eck.

Algoritmen hebben we te danken aan een wijze uit het Oosten

In de krant lezen we geregeld dat ons leven meer en meer wordt beheerst door algoritmes. Of algoritmen, al neemt de populariteit van dat meervoud de laatste jaren enigszins af.

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden