Opinie Algoritmen

Algoritmen tonen het menselijk tekort

Als algoritmen discrimineren, dan is dat omdat ze zo door mensen geprogrammeerd zijn. Daar kunnen en moeten we ons voordeel mee doen, schrijven  Thijs Pepping en Sander Duivestein, van het verkenningsinstituut Nieuwe Technologie (VINT) van Sogeti.

De virtuele assistente van Apple kon in eerste instantie wel prostituees en viagrawinkels vinden, maar geen abortusklinieken. Dankzij een ingebouwde raciale voorkeur concludeerde een veelgebruikt algoritme in de Amerikaanse zorgsector dat blanke patiënten een hoger risico lopen op diabetes en hoge bloeddruk dan zwarte patiënten. Zo zijn er tal van voorbeelden, waaruit blijkt dat kunstmatige intelligenties (AI) vooroordelen hebben. Dat wordt bias genoemd. Het is een shockerende ontdekking dat niet alle AI-systemen inclusief zijn, en zonder aanziens des persoons hun rekenwerk doen.

Maar het is te makkelijk om te concluderen dat technologie tekortschiet. Want dit falen legt tegelijkertijd de ziel van mensen bloot. Onderhuidse vooroordelen worden inzichtelijk en zelfs uitvergroot. Zoals dat vaker met technologie gaat, wordt op een presenteerblaadje aangeleverd wat het betekent om mens te zijn. Zowel met de goede kanten, maar ook met de rafelrandjes van voorkeuren. Alle reden om ermee aan de slag te gaan.

Bias in algoritmen bevechten

Het Amerikaanse wetenschapsmagazine Science publiceerde onlangs dat de raciale voorkeur van het veelgebruikte zorgalgoritme is ontstaan, omdat gebruikte gegevens om het algoritme te trainen niet objectief waren. De samenleving in de VS geeft minder geld uit aan zwarte patiënten dan aan even zieke blanke patiënten. Daarom onderschatte het algoritme de werkelijke behoeften van de hulpbehoevende zwarte burger. Zo kwam een onbewuste onrechtvaardigheid in de samenleving in het algoritme terecht.

Het staat buiten kijf dat we de bias in algoritmen moeten bevechten. Technologie heeft de mogelijkheid tot schaalvergroting. Daarmee heeft een ongelijkheid in een algoritme al snel grote gevolgen voor grote groepen mensen.

Ethische implicaties van technologie

Het besef van ethische implicaties van technologie groeit gestaag. Zo ontstaan er nu initiatieven om de bias uit algoritmen te halen. Onderzoekers aan de TU-Delft werken aan software die ‘ethische afwegingen’ maakt. Wetenschappers van de Amerikaanse universiteiten Stanford en Massachusetts pleiten voor het vooraf filteren van ‘ongewenst gedrag’ van algoritmen.

Het is echter veel eenvoudiger om algoritmen te veranderen dan om mensen zich te laten aanpassen. Software op computers kan worden bijgewerkt, maar de zogeheten wetware in de hersenen van de mens is tot nu toe veel minder soepel gebleken. Onder andere het werk van psycholoog Daniel Kahneman en de dagelijkse realiteit laten de feilbaarheid van onze rationaliteit zien en ook hoe moeilijk het is om vooroordelen te overwinnen.

Neus op de feiten

Hulp van algoritmen biedt uitkomst. Kunstmatige intelligentie met bijbehorende schaalvergroting is een effectieve manier om mensen met de neus op de feiten te drukken. Falende algoritmen laten de gevolgen zien van een gebrek aan diversiteit in ontwikkelteams, genderbias in organisaties of van onrechtvaardigheden in de samenleving. Wat vroeger ingewikkelde wetenschap voor sociologen, psychologen en filosofen was, is nu de praktijk geworden dankzij de inzet van kunstmatige intelligentie. Daarmee is internet ’s werelds grootste sociale experiment, waarmee de mens zijn voordeel moet doen.

Slimme technologie houdt ons een spiegel voor die een uiterst intieme blik geeft in de psyche van de mens, het zelfbeeld en op de samenleving. Het sleutelen aan algoritmen en het verbeteren en verrijken van gegevens is nodig. Tegelijkertijd moet de samenleving zelf aan de slag met het huiswerk dat algoritmen opleveren. Nooit eerder werd de samenleving zo openlijk geconfronteerd met eigen tekortkomingen. Als we de confrontatie durven aangaan, is dat een zegen.

Lees ook:

Een verantwoord gebruik van kunstmatige intelligentie vraagt niet alleen om transparantie

Verantwoord gebruik van kunstmatige intelligentie vraagt om transparantie en controleerbaarheid vinden Cathy O’Neil (wiskundige) en Bart Schermer (universitair hoofddocent in Leiden).

Angst voor algoritmes is onterecht: ‘discriminerend’ algoritme geeft slechts weer wat mensen denken

Angst voor algoritmes is onterecht. Ze kunnen de overheid juist helpen om goed en rechtvaardig beleid te voeren, betoogt Christian Verhagen, adviseur Data & Analytics Publieke Sector bij Verdonk, Klooster & Associates.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2020 DPG Media B.V. - alle rechten voorbehouden