Commentaar

De keuzes van een zelfrijdende auto zijn niet neutraal, ook al is het een computer

Een zelfrijdende auto wordt getest op de A2. Dit gebeurt overdag, tussen het overige verkeer, om te kijken hoe dat gaat. Beeld ANP

Het is een kwestie van tijd. Zelfrijdende auto’s zullen ooit heel gewoon zijn. Er zijn al plannen om ze een soort S-rijbewijs te laten halen, met de S van software. Deze auto’s zijn één bonk technologie, maar we verwachten dat ze zich op de weg net zo gedragen als hun soortgenoten met een menselijke bestuurder.

Daarom zijn de uitkomsten van Moral Machine, een wereldwijd experiment uitgevoerd door een internationale groep wetenschappers, ook zo interessant. Deelnemers kregen vragen voorgelegd wat de auto moest doen, als er opeens een botsing dreigt met een overstekende voetganger? Kiest hij voor uitwijken met kans op letsel voor de inzittenden, of moet de voetganger er aan geloven? Over de uitkomsten hebt u onlangs bij ons kunnen lezen. Opvallend was dat er kleine cultuurbepaalde verschillen zijn, en ook verschillen met onze wetgeving.

De meeste wetsartikelen – bijvoorbeeld voor dood door schuld in het verkeer– zijn namelijk gender- en leeftijdneutraal, er staat niet per definitie minder straf op het doodrijden van een bejaarde dan van een kind.

Moral Machine

Dit experiment is belangrijk, omdat het zo overduidelijk laat zien dat technologie nooit neutraal kan zijn. Lang is aangenomen dat dingen en apparaten geen morele keuzes maken. Het is immers de mens die ze bedient, gebruikt of aanstuurt. Met de opkomst van complexe programmering zijn er filosofen die stellen dat de menselijke ethiek minder belangrijk is geworden, nu we bepaalde keuzes kunnen uitbesteden aan computers. 

Algoritmes bepalen wie welke verzekeringspremie betaalt, er bestaat software die die kans op herhaling bij een misdadiger inschat, of uitrekent waar de politie het beste kan patrouilleren. We beschouwen deze keuzes vaak als objectief en neutraal, terwijl we niet lijken te zien dat aan de basis van deze complexe algoritmes menselijke keuzes en input staan. Die dus ook het risico inhouden van vooroordelen en discriminatie.

De Moral Machine stelt deze impliciete keuzes aan het daglicht bloot en maakt ze expliciet. Dat is goed, want het maakt een heldere discussie mogelijk.

Zelfsturende auto’s zijn zo een mooi voorbeeld van wat de filosoof Hans Achterhuis de moralisering van apparaten noemt. Wat vinden we eigenlijk met z’n allen: mag de zelfsturende auto bij een dreigende botsing twee bejaarde voetgangers ‘offeren’ omdat er in de auto drie kinderen op de achterbank zitten die anders tegen de boom in de berm knallen?

Het is goed om te laten zien hoe deze keuzes in technologie worden verwerkt en door techniek beïnvloed. Dat gebeurt nog lang niet overal. Uiteindelijk staan onze eigen morele keuzes aan de wieg van alle gebruik van programmatuur en moderne technologie.

Het commentaar is de mening van Trouw, verwoord door leden van de hoofdredactie en senior redacteuren.

Lees ook: 
Of de zelfrijdende auto het leven van een baby of een bejaarde spaart, hangt af van het land waar hij rijdt

De auto die alles zelf kan, moet bij gevaar kunnen kiezen wiens leven wordt gespaard. De uitkomst verschilt per land. 

Algoritmes ontketenen een race tegen de toekomst

Sinds de uitvinding van de klok heeft de mens werktijden waaraan hij zich moet houden. Dat is nog te doen. Maar algoritmes halen de teugels heel wat strakker aan.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2019 DPG Media B.V. - alle rechten voorbehouden