Uw profiel is aangemaakt

U heeft een e-mail ontvangen met een activatielink. Vergeet niet binnen 24 uur uw profiel te activeren. Veel leesplezier!

Wees op je hoede, want ook algoritmen maken fouten

Opinie

Marc Steen

© ANP Kippa
opinie

Zelflerende algoritmen hebben niet de wijsheid in pacht, betoogt senior-onderzoeker Marc Steen van TNO. Kennis van onderliggende processen is cruciaal om te begrijpen waar het misgaat.

Dankzij het debacle met Cambridge Analytica en Facebook zijn we ons meer bewust geworden van het belang van online privacy en dataprotectie. Om die te waarborgen, is in mei de AVG (Algemene Verordening Gegevensbescherming) van kracht geworden in Europa. 

Lees verder na de advertentie

Maar er is een veel groter probleem: het probleem van zelflerende algoritmen die op basis van stapels data allerlei conclusies trekken. Conclusies die we klakkeloos geloven, zonder uitleg. Hoogleraar psychologie Mark van Vugt roept in zijn wetenschapsrubriek op tot een debat daarover (Trouw, 2 juni). Dat debat is nodig en nuttig. Soms moet je een spade dieper graven.

Van Vugt noemt een algoritme dat op basis van foto’s van gezichten criminelen van niet-criminelen zou onderscheiden. Twee hoogleraren van de Universiteit van Washington keken hier kritisch naar en leggen uit dat er een bias (vertekening) in het algoritme is geslopen door de foto’s waarmee het algoritme is getraind. Het algoritme is getraind met twee sets foto’s: politiefoto’s van veroordeelde criminelen, die nors kijken, en willekeurige foto’s van professionele websites, waarop de mannen glimlachen.

Transparantie gaat over de mate waarin een algoritme inzichtelijk is

Het algoritme heeft dus geleerd om onderscheid te maken tussen nors kijken en glimlachen. Niet om criminelen te herkennen. Zo zijn er talloze voorbeelden van algoritmen die conclusies trekken. In de rechtspraak, in het vinden van werk, in het verkrijgen van een lening of hypotheek, in het kiezen van medische behandelingen. En dat zonder uitleg over het onderliggende proces. Zo kunnen we dat proces niet goed bekritiseren. Dat moet beter.

Mens en machine

Om beter te worden in het stellen van kritische vragen kunnen we drie begrippen gebruiken: agency, transparantie en accountability van algoritmen.

Agency (het vermogen om autonoom te handelen) gaat over de verdeling van macht tussen mens en machine. Dit is een glijdende schaal. Aan de ene kant staat de mens die de machine gebruikt als gereedschap. Het is dan cruciaal dat hij begrijpt hoe de machine werkt. Aan de andere kant van de schaal staat de machine centraal en is de mens verworden tot een tandwiel. Hij leest op zijn scherm wat hij moet doen en begrijpt er weinig van. Computer says no. Het lijkt mij duidelijk dat we geen tandwielen willen worden.

Begrijpen en uitleggen

Transparantie gaat over de mate waarin een algoritme inzichtelijk is. Kun je het begrijpen en uitleggen? Maar bedrijven of overheden willen of kunnen vaak niet vertellen hoe hun algoritmen werken. Dat kan zijn vanwege intellectueel eigendom of geheimhouding, maar het kan ook zijn omdat ze zelf evenmin begrijpen hoe hun (zelflerende) algoritme precies werkt.

Accountability gaat over het kunnen afleggen van verantwoording. Bijvoorbeeld over wat rechtvaardig of eerlijk is. Algoritmen gebruiken data uit de maatschappij. Daar komt nu eenmaal discriminatie voor en zo komt er (onbedoeld) discriminatie in de algoritmen terecht. Er zijn voorbeelden van discriminatie in de rechtspraak in de VS. Of over de mate van accuratesse. Algoritmen werken wel met grote getallen, maar maken fouten op individueel niveau. Zoals toen een politieagent rapper Typhoon onterecht staande hield (hij bleek niet-crimineel). In zulke gevallen heb je ook transparantie nodig.

Ik hoop dat we, als burgers en als consumenten, meer kritische vragen kunnen gaan stellen over algoritmen, en daarmee overheden en bedrijven dwingen om algoritmen te gebruiken die passen in een rechtvaardige samenleving.

Lees ook: 

De geheime diensten staan klaar om met algoritmen naar terroristen te speuren

In de nieuwe inlichtingenwet is voor het eerst vastgelegd dat de AIVD en MIVD met computeranalyse grote hoeveelheden data mogen doorzoeken. Maar deugen de algoritmen die daarvoor gebruikt worden wel, en wie controleert dat?

Computersystemen bepalen steeds vaker wat we zien, maar hoe leer je een computer wat ethiek is?

Computersystemen bepalen onderhand wat we zien, mogen en doen. Maar die kunnen even bevooroordeeld zijn als mensen. Hoe vertel je een computer wat ethiek is? 'Ethiek is niet te vertalen in enen en nullen.'

Deel dit artikel

Transparantie gaat over de mate waarin een algoritme inzichtelijk is