Opinie

Een verantwoord gebruik van kunstmatige intelligentie vraagt niet alleen om transparantie

Een robotvis maakt gebruik van kunstmatige intelligentie om de zeeën te onderzoeken.Beeld Photo News

Verantwoord gebruik van kunstmatige intelligentie vraagt om transparantie en controleerbaarheid vinden Cathy O’Neil (wiskundige) en Bart Schermer (universitair hoofddocent in Leiden).

De onderzoekers waren stomverbaasd. Ze dachten dat ze de computer een onmogelijke opdracht hadden gegeven: vind een manier voor een robotspin om te lopen zonder dat zijn voeten de grond raken. Maar het algoritme vond een oplossing. Door de robot om te draaien kon het zijn ellebogen als voeten gebruiken.

Voor veel algoritmen die nu hun weg vinden in onze samenleving zijn de resultaten minder spectaculair. Er zijn tal van voorbeelden van algoritmen die inaccuraat zijn, discrimineren of simpelweg verkeerde beslissingen nemen.

Nu kunstmatige intelligentie (AI) op meer terreinen beslissingen neemt die mensen raken, worden vragen over de ethisch verantwoorde toepassing van algoritmen steeds relevanter.

In april van dit jaar kondigde de Europese Commissie aan dat zij leidend wil worden op het gebied van AI. Hierbij verliest de Europese Commissie gelukkig niet de ethische aspecten van AI uit het oog en moet het gebruik van AI transparant en controleerbaar zijn.

Belangrijke pijler

De Algemene Verordening Gegevensbescherming verbiedt nu al het nemen van volledig geautomatiseerde besluiten die mensen in aanzienlijke mate treffen (het niet in aanmerking komen voor een baan, het niet krijgen van een hypotheek et cetera). Daar waar er uitzonderingen zijn op dit verbod moeten de logica en de gevolgen van de toepassing helder zijn voor het individu. Weggestopt in overweging 71 van de verordening staat dat degene die AI inzet ‘passende wiskundige en statistische procedures’ moet hanteren om te garanderen dat de besluitvorming klopt.

Het is de vraag hoe deze eisen in de praktijk worden gehandhaafd, maar het inzicht krijgen in de werking van algoritmen lijkt een belangrijke pijler te zijn van het toekomstig EU-beleid. In dit kader heeft de Franse regering alvast aangekondigd dat elk algoritme dat wordt ontwikkeld of ingezet binnen de Franse overheid openbaar wordt gemaakt.

Bedrijven en overheden lijken echter niet heel happig op het openbaren van hun algoritmen, de trainingsdata en de uitkomsten van het gebruik. Hiervoor zijn meerdere redenen aan te wijzen. Allereerst kan het openbaren van je algoritmen je concurrentievoorsprong tenietdoen. Het is alsof je Coca Cola vraagt om hun geheime recept aan je te geven zodat je de ingrediënten kunt controleren. Bedrijven en overheden zijn ook bang dat het openbaren van algoritmen kwaadwillenden in staat stelt het systeem te manipuleren. Ten slotte kan het openbaren en laten toetsen van je algoritmen tot ongemakkelijke conclusies leiden over de effectiviteit en accuraatheid van het algoritmische besluitvormingsproces.

Transparantie is een belangrijke eerste stap voor een verantwoorde maatschappelijke toepassing van AI, maar is op zichzelf niet voldoende. Niet iedereen begrijpt computercode bijvoorbeeld, dus het is de vraag wat de gemiddelde consument heeft aan transparantie.

Om vertrouwen te kunnen hebben in de verantwoorde toepassing van AI, moet het gebruik ervan daarom onafhankelijk worden getoetst. De correcte werking van een algoritme kan worden getoetst met een audit, een onderzoek naar het proces. Ook bestaan er beoordelingsprogramma’s waarmee organisaties kunnen aantonen dat zij hebben nagedacht over de vraag hoe hun toepassing van AI de samenleving raakt.

Creatieve oplossing

Een succesvol gebruik van AI binnen onze samenleving staat of valt met een betrouwbare, veilige en transparante toepassing. Het is één ding als een computer een creatieve oplossing vindt voor een moeilijk theoretisch probleem, het is iets heel anders als een algoritme onverwachts het leven van mensen vernietigt.

Lees ook:

Algoritmes kunnen crimineel gedrag voorspellen, maar zorgen ook voor nieuwe problemen

Hoe goed kunnen algoritmes crimineel gedrag voorspellen? Er kleven ook bezwaren aan 'voorspellend politiewerk'.

Wees waakzaam voor kunstmatige intelligentie

Een ethische discussie is veel te weinig om de enorme technologische vooruitgang van kunstmatige intelligentie bij te houden, betoogt Marietje Schaake, Europees parlementariër D66 en kandidaat-lijsttrekker D66 Europa.

Europa heeft een unique selling point: de ethische kijk op kunstmatige intelligentie

Als het aan Emmanuel Marcron ligt, krijgt Europa een leidende stem in de ontwikkeling van artificial intelligence (AI). 

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2020 DPG Media B.V. - alle rechten voorbehouden