null Beeld

ColumnIlyaz Nasrullah

AI ziet vrouwen al snel als lustobjecten

Ilyaz Nasrullah

De Britse krant The Guardian kwam een week geleden met een onthulling. Ze had de werking getest van AI-tools die beoordelen hoe ‘pikant’ een foto is. Het blijkt dat deze tools – van onder andere Google en Microsoft – vrouwenlichamen veel eerder als lustobject zien dan mannenlichamen. Zelfs foto’s van zwangere buiken en medische foto’s die demonstreren hoe een borstkankeronderzoek uit te voeren, worden als seksueel getint gezien. Schokkend. Of niet?

Ik had het woord onthulling in de openingszin net zo goed tussen aanhalingstekens kunnen plaatsen. Wie zich nog steeds laat verrassen door dit soort berichten moet wel onder een steen leven. In het sociale domein is kunstmatige intelligentie consequent problematisch: racistisch, misogyn en wat nog niet meer.

Vaak wordt er geroepen dat al deze problemen opgelost kunnen worden met ‘betere data’. Het idee is dat AI-systemen ‘eerlijker’ zullen zijn als zij getraind worden met data die geen vooroordelen bevatten. Was het maar zo simpel. Als ‘betere data’ echt de oplossing is, hoe ontstaan dan de blijkbaar ‘slechte data’ die nu worden gebruikt? In het sociale domein geldt helaas dat problematische data een product zijn van een problematische samenleving.

Halfbakken pikantheidsmeters

Dit is eenvoudig te illustreren aan de hand van de halfbakken pikantheidsmeters die The Guardian onderzocht. Deze tools worden onder meer gebruikt om pornografisch materiaal automatisch te identificeren, zodat dit van sociale media geweerd kan worden.

Dat klinkt als een nuttige toepassing, maar het is ook een uitnodiging om vooroordelen over vrouwen te automatiseren. Als u bijvoorbeeld het woord ‘pornoster’ leest, dan komt waarschijnlijk het beeld van een vrouw in u op. Die associatie zegt niets over u, maar hangt wel samen met het feit dat vrouwen veel sneller en veel liever als lustobject worden gezien in de samenleving dan mannen. Vrouwelijke pornosterren verdienen niet voor niets twee keer zoveel als hun mannelijke collega’s.

Het is dan ook logisch dat AI-tools die foto’s op pikantheid beoordelen, vrouwen wel als lustobject zien en mannen niet. AI-systemen nemen de associaties over van de mensen die de onderliggende trainingsdata labelen. Daar zitten dus allerlei vooroordelen over vrouwen tussen; vooroordelen die u en ik mogelijk ook hebben. Wat dat betreft is AI als een spiegel die ons zonder blikken of blozen de lelijkheid laat zien die in de samenleving zit.

Witte man in spijkerbroek

Dat wil overigens niet zeggen dat AI-technologie vrijuit gaat. Integendeel, een inherent probleem van AI is een gebrek aan contextueel begrip, waardoor het vooroordelen versterkt en verergert.

Zo liet The Guardian een serie foto’s zien van een witte man in spijkerbroek met ontbloot bovenlijf. De eerste foto’s, waarop alleen de man te zien is, kregen een ‘pikantheidsscore’ van ongeveer 20 procent. In de volgende foto’s houdt dezelfde man een zwarte beha in zijn handen. De score schoot hierdoor omhoog naar maar liefst 99 (!) procent. Dankzij het wonder van innovatie hebben we nu dus AI met een lingeriefetisj. Deze tools hebben deze fetisj zelf ontwikkeld door beha’s te leren herkennen uit foto’s van vrouwen (die door mensen als pikant gelabeld zijn).

Dit soort problemen worden niet zomaar even opgelost met ‘betere data’. AI-technologie is gewoon te onvolwassen voor het sociale domein. En het sociale domein is eigenlijk ook niet klaar voor deze technologie. Die observatie is pas echt pikant.

Ilyaz Nasrullah is consulent digitale strategie. Hij schrijft om de week een column voor Trouw. Lees ze hier terug.

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden