Eerlijk algoritme

Een eerlijk algoritme? Dat is niet zo makkelijk te maken, maar het kán wel

Rik Helwegen. Beeld Sjoerd van der Hucht

Kan een algoritme eerlijk zijn? Rik Helwegen, net afgestudeerd in kunstmatige intelligentie, ontwikkelde een methode die gevoelige data buiten beschouwing laat.

De computer zegt dat de kans groot is dat u gaat frauderen met uw uitkering. Dat klinkt als iets van de toekomst, maar het overkwam de ­bewoners van de Rotterdamse wijken Hillesluis en Bloemhof echt. Een algoritme van de overheid met de naam SyRI had in de wijken dik 1200 verdachte adressen aangewezen. De bewoners voelden zich weggezet als criminelen en protesteerden. Met succes, want Rotterdam besloot de conclusies van het algoritme te negeren.

Precies dit soort toepassingen van data-analyses zette Rik Helwegen (25), recent afgestudeerd als masterstudent kunstmatige intelligentie aan de Universiteit van Amsterdam, aan het denken. Hoe is het eigenlijk gesteld met de eerlijkheid van algoritmes? Mag een gemeente bijvoorbeeld informatie over etniciteit laten meewegen in een algoritme dat ­bekijkt wie er mogelijk gaan frauderen met uitkeringen of toeslagen? Of mag geslacht worden meegenomen bij een data-analyse die bepaalt wie geschikt is voor een vacature?

“Op de vraag wat een eerlijk algoritme is, is het definitieve antwoord nog niet gegeven”, zegt Helwegen. “Het is instinctief. Overheden hebben veel gevoelige data van mensen, wil je dat ze ook altijd al die gegevens mogen gebruiken?”

Wie een eerlijk algoritme wil, moet grondig te werk gaan

Helwegen ontwikkelde een ­methode om die gevoelige data buiten beschouwing te laten. Bij de ­gemeente Amsterdam en het Centraal Bureau voor de Statistiek (CBS) testte hij het in de praktijk. Simpel gezegd is zijn doel dat de uitkomst van een algoritme hetzelfde blijft als persoonsgegevens waarvan je niet wilt dat ze een rol spelen, worden verwisseld. Gaat een computer bijvoorbeeld op zoek naar mensen die mogelijk frauderen, dan zou het voor de uitkomst niet mogen uitmaken of ze een westerse of een niet-westerse achtergrond hebben.

“Veel mensen denken: dan laat je gegevens over etniciteit of geslacht toch gewoon weg?”, zegt Helwegen. “Maar zo simpel is het niet. Etniciteit kan bijvoorbeeld ook invloed hebben op de plek waar je woont. Als je postcodes dan wel meeneemt in de analyse, dan kan etniciteit nog steeds een rol spelen.”

Wie een eerlijk algoritme wil, moet dus grondiger te werk gaan. Daarom maakt Helwegen voorafgaand aan een analyse een inschatting op welke elementen de gevoelige data allemaal invloed hebben. Op basis daarvan wordt het algoritme zo gestructureerd dat die gegevens geen rol meer spelen in de uitkomst.

Het politieprogramma in Los Angeles is stopgezet

Wordt een algoritme daar beter of juist slechter door? Dat hangt er vanaf, zegt Helwegen. Zo kan het zijn dat de besliskracht afneemt: minder informatie voor de computer om mee te rekenen, kan een minder complexe analyse tot gevolg hebben. Maar het weglaten van gevoelige persoonskenmerken kan een algoritme ook juist verbeteren, stelt Helwegen. “Als je weet dat de gegevens selectief zijn, en niet zozeer iets zeggen over de werkelijkheid, dan kan de uitkomst door deze methode ­beter worden.”

Want het is volgens de algoritmedeskundige goed om te beseffen dat datgene wat de computer concludeert op basis van een berekening niet altijd objectief is. “Neem de ­politie in Los Angeles, die al langer bezig is met predictive policing: ­recent hadden ze een programma ­lopen waarin de computer aangaf welke mensen het meest waarschijnlijk crimineel gedrag zouden vertonen. Dit algoritme is gebaseerd op politie-acties in het verleden. Wanneer agenten vooringenomen te werk zijn gegaan, bijvoorbeeld door mensen met een bepaalde etnische achtergrond vaker staande te houden, neemt zo’n algoritme die bias direct over.” Dat bleek het geval: het programma in LA is om die reden ­inmiddels stopgezet. 

De methode van Helwegen, die hij FairTrade noemt, zou die vooringenomenheid kunnen verhelpen. Hoe nu verder? Zoals een echte ­wetenschapper betaamt, zegt hij: er is eerst meer onderzoek nodig voor de methode klaar is voor de praktijk. Voorlopig gaat hij daar zelf mee door, onder meer in samenwerking met de gemeente Amsterdam en het CBS. “Ik heb de oplossing voor eerlijke algoritmes nog niet gevonden, mijn methode is hooguit een waardevolle stap in de goede richting.”

Lees ook: 

De Rotterdamse huishoudens die verdacht worden van fraude zijn diep beledigd: ‘Het lijkt wel ‘40-‘45'

Bij huishoudens uit twee Rotterdamse wijken is de kans volgens een algoritme van de overheid groot dat ze frauderen met uitkeringen. Ze komen in verzet.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2019 DPG Media B.V. - alle rechten voorbehouden