null Beeld

ColumnKelli van der Waals

In algoritmes zit een witte mannen-wereldvisie verwerkt

Weet je nog, The Social Dilemma? Die Netflixdocu over hoe sociale media ons fabeltjesfuiken intrekken en de maatschappij ontwrichten. Waar iedereen een paar maanden geleden artikelen, columns, opiniestukken, talkshows, satirische programma’s en podcasts over maakte. Waardoor we bruut met onze neus op het gevaar van onze favoriete apps werden gedrukt en ons realiseerden dat we er beter zo snel mogelijk mee konden stoppen – waarna we toch maar gewoon op dezelfde voet verder gingen.

Sinds een week staat er een nieuwe must see techdocumentaire op de streamingdienst (en te zien bij bij het onlinefestival Movies that Matter): Coded Bias, over de vooroordelen die zijn ingebouwd in algoritmes. Dat klinkt als een vaag theoretisch probleem, maar algoritmes zijn diep vervlochten met mijn, jouw, uw leven. Van welke posts en filmpjes we online te zien krijgen (zo leerden we al in The Social Dilemma), tot welke boodschappen in de bonus zijn bij Albert Heijn, wie er in de gaten wordt gehouden door de politie en de manier waarop studenten bespied worden tijdens hun examen-op-afstand.

Die algoritmes zijn grotendeels in elkaar gedraaid door witte mannen, waardoor er automatisch een witte mannen-wereldvisie in verwerkt zit. Zij bepalen immers de waarden waarop het algoritme zijn keuzes baseert, wanneer het ‘ja’ of ‘nee’ zegt, ‘omhoog’ of ‘omlaag’. Een machine is geenszins de objectieve beoordelaar die hij lijkt te zijn.

In het Westen worden we net zo hard in de gaten gehouden

Het is makkelijk te raden wie daarbij aan het korte eind trekt, de film geeft een paar goede voorbeelden. Zo besloot Amazon een paar jaar terug een hr-algoritme in te zetten bij de selectie van nieuwe werknemers. Om te zeggen dat het rekenmodel bevooroordeeld was tegen vrouwen is een understatement: álle cv’s van vrouwen werden afgewezen. Het algoritme van een Amerikaanse zorgverzekering gaf gezondere witte patiënten voorrang op ziekere zwarte patiënten. Ook zien we surveillance-camera’s in Londen, die voorbijgangers scannen met gezichtsherkenningssoftware. In een superpijnlijke scène wordt een onschuldige 14-jarige zwarte jongen door een hele groep agenten meegenomen, omdat het algoritme dacht dat hij iemand anders was – vooral bij zwarte mensen zitten gezichtsherkenningsalgoritmes er vaak naast. Door te wijzen op deze vooringenomenheid, doet Coded Bias een enorm oneerlijke wereld uit de doeken. En waarschuwt dat zwaar bevochten vrijheden zo weer ongedaan worden gemaakt.

Ook Nederland draait op dit soort bevooroordeelde systemen: de toeslagenaffaire had te maken met een algoritme dat sommige nationaliteiten beoordeelde als risicofactor. In januari riep de Rekenkamer ertoe op meer aandacht te besteden aan de ethische kant van algoritmes. Misschien moeten we ook aandacht besteden aan de vraag of we die algoritmes überhaupt wel te pas en te onpas willen inzetten. Van veel van die systemen begrijpen de makers niets eens precies hoe ze werken, en vaak weten we ook niet dát ze ingezet worden en wat ze allemaal voor ons bepalen. We zijn blij dat we niet onder de geautomatiseerde surveillance van China leven, maar in het Westen worden we net zo hard in de gaten gehouden. China is er tenminste eerlijk over, zegt een van de geïnterviewden. Ziedaar de reden om Coded Bias te kijken: we moeten tenminste weten dat het gebeurt. Kom maar door met die artikelen, columns, opiniestukken en talkshows.

Swipen & klikken - Kelli van der Waals bespreekt opvallende trends en discussies in online media. Eerdere columns vind je hier.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2021 DPG Media B.V. - alle rechten voorbehouden