Interview Kunstmatige intelligentie

Filosoof Katleen Gabriels: Je kunt machines geen ethische gedragscode meegeven

Robin Williams als ­robot Andrew in de film ‘Bicentennial Man’ (1999). Beeld Hollandse Hoogte / Mary Evans Picture Library Ltd.

Je kunt machines allerlei instructies mee­geven, maar niet een sluitende ethische gedragscode. Moraliteit is en blijft menselijk. Hou daar rekening mee, betoogt de Vlaamse filosoof Katleen Gabriels.

Siri, de virtuele assistent van Apple, was bij lancering een ontdekking. Hij hielp je met van alles. Hij wees je moeiteloos de weg naar een prostituee of het dichtstbijzijnde verkooppunt van viagra. Maar je moest hem niet de weg vragen naar een abortuskliniek, want die kende hij niet.

Technologie is nooit neutraal, wil Katleen Gabriels maar zeggen met dit voorbeeld. Er kruipen meningen en voorkeuren in het ontwerp. Soms met opzet, om een commercieel doel te dienen, maar vaak zonder dat de maker zich ervan bewust is. Openbare toiletten zijn de afgelopen jaren geautomatiseerd, met de beste bedoelingen. Je hoeft in die toiletten niets meer aan te raken, alles reageert op de bewegingen van je lichaamsdelen. Je handen onder de kraan doen het water stromen. Heel hygiënisch, prachtig. Tot een paar zwarte mannen in een filmpje lieten zien dat het met hun handen niet werkt. De sensor van de kraan reageerde alleen op blanke handen.

Regels voor robots

Katleen Gabriels is assistant-professor aan de Universiteit Maastricht en bekleedde het afgelopen jaar bovendien de Calewaert-leerstoel aan de Vrije Universiteit in Brussel. De Vlaamse filosoof deed in dat jaar onderzoek naar techniekethiek en kunstmatige intelligentie. Het resultaat is een bijzonder lezenswaardig boek (‘Regels voor robots’) dat binnenkort verschijnt.

Het boek begint met de verhouding tussen mens en technologie, die soms een heel ander karakter krijgt dan de ontwerper dacht. Gabriels: “Sprekend voorbeeld is twitterontwikkelaar Chris Wetherell, de man die de retweet-knop heeft bedacht. Die heeft daar spijt van. Hij dacht dat het een mogelijkheid was om de stem van minderheden te laten klinken. Maar de retweet-knop werd de motor van razendsnelle hetzes op Twitter. Wetherell betreurt dat nu, en vergelijkt de retweetknop met het geven van een geladen wapen aan een vierjarige.”

Sociale dynamiek

Dat zijn bedenkingen achteraf. “Inderdaad. Het was beter geweest als hij dat tevoren had ingezien. Een ontwerper heeft altijd te maken met morele keuzes en met een sociale dynamiek die zijn ontwerp zal krijgen. Je moet heel goed onderlegd zijn om die te doorzien. En je kunt niet alle gebruik voorspellen. Maar op die retweetknop had hij bijvoorbeeld een plafond kunnen zetten, een maximum voor het aantal keren dat een bericht doorgestuurd kan worden.”

Filosoof Katleen Gabriels. Beeld Maikel Samuels

Ontwerpers en ingenieurs vallen vaak terug op de stelling dat zij een technologie slechts ontwikkelen, en niet bepalen hoe die wordt gebruikt. De stelling is onhoudbaar, zegt Gabriels, en haar boek is een pleidooi voor waardegedreven ontwerpen op basis van een degelijke scholing in techniekethiek. “Daar wordt in Nederland veel meer aandacht aan besteed dan in Vlaanderen. Daarom werk ik aan een Nederlandse universiteit. Nederland heeft het Rathenau Instituut dat goed onderzoek doet op dit gebied. En de technische universiteiten (Delft, Eindhoven, Twente en Wageningen) hebben een gezamenlijk onderzoekscentrum voor techniekethiek.”

Eerlijk en eerlijk

Dat wil nog niet zeggen dat ontwerpers en ingenieurs een filosoof met open armen ontvangen. “Ik heb al een hele ontwikkeling meegemaakt, die begon met de typische vraag van eerstejaars studenten: waarom moeten wij dit leren? Eerstejaars denken veelal dat technologie simpelweg neutraal is. Wij filosofen zijn geschoold om de achterliggende complexiteit zichtbaar te maken. Neem een begrip als eerlijkheid. Lijkt helder. Maar wat als jou in vertrouwen wordt verteld dat je beste vriendin door haar vriend wordt bedrogen? Eerlijk zijn en het haar vertellen betekent dat vertrouwen schenden.”

Inmiddels komt er aandacht voor de lastige vragen van de filosoof, zegt Gabriels: “Ik werd twee jaar geleden gevraagd om op een congres over machine learning in Berlijn de openingslezing te geven. Want de organisatie wilde dit keer wat aandacht voor ethiek. Ik was zenuwachtig, want daar zat een zaal vol gestaalde technologen. Maar na afloop bleven de vragen komen, en hebben we een extra werksessie moeten beleggen. De ingenieurs waren blij dat ze hierover konden praten. Ze zaten met een knagend geweten.”

“Het is misschien de tijdgeest: we moeten hier aandacht aan besteden. Een technoloog heeft de neiging om te zeggen: geef handvatten, geef me spelregels. Maar ethiek is geen checklist. ­Filosofie werkt zo niet.”

Basisregels

In de vroege dagen van de kunstmatige intelligentie was er de hoop dat je voor machines een soort ethische code kon programmeren. Pionier Isaac Asimov legde de basis met een paar simpele regels voor robots:

Regel 1: een robot mag een mens niet verwonden

Regel 2: een robot moet bevelen van mensen uitvoeren, tenzij hij daarmee regel 1 schendt

Regel 3: een robot moet zijn eigen voortbestaan beschermen, tenzij dat botst met regel 1 of regel 2.

Iets van deze basis is terug te vinden in de code die Duitsland recent heeft vastgesteld voor de meest besproken robot van dit moment: de zelfrijdende auto. De Duitse code, een koploper, komt in het boek van Gabriels uitgebreid aan de orde. Ze is er vrij positief over, omdat die wel enkele duidelijke regels bevat à la Asimov (zoals de regel dat het leven van een mens boven het leven van een dier gaat), maar tegelijk uitsluit dat een ethische code volledig geautomatiseerd kan worden.

“Er worden allerlei denkoefeningen gedaan met dramatische verkeerssituaties. De zelfrijdende auto moet dan bijvoorbeeld uitwijken voor een tegenligger en kan naar links, waar een bejaarde loopt, of naar rechts waar een kind speelt. Pas op: dit is nog lang geen realiteit hè, de zelfrijdende auto ziet op dit moment met moeite het verschil tussen een mens en een boom. Maar als je dit dilemma gaat testen, stuit je direct al op culturele verschillen. In Europa hebben we de neiging het kind te sparen dat nog een leven voor zich heeft. Maar in Japan krijgt eerbied voor de oudere de voorrang.”

Geen blauwdruk

“Systemen moeten worden ontworpen om ongevallen te vermijden. Maar je kunt dat onmogelijk standaardiseren tot op het niveau van beslissingen die een menselijke bestuurder moet nemen. En waarom? Omdat er geen morele blauwdruk voor is. Ken jij iemand die die dat zou kunnen zijn? Niemand kan die blauwdruk zijn. Moraliteit is altijd afhankelijk van de context. De mens heeft zijn geboden. Maar zelfs het gebod om niet te doden is rekbaar; in het geval van zelfverdediging mag het wel. Hoe zouden we dan ooit moraliteit in een machine kunnen programmeren?”

“Ik zie een wedstrijd voor me op televisie”, lacht Gabriels. “Een wedstrijd waarin mensen kunnen strijden om de eer het beste model van moraliteit te zijn. De winnaar gebruiken we dan om een machine te programmeren. En dan zien hoe die machine gaat handelen. Het zou een verhaallijn kunnen zijn in GTST of zo, om het debat te stimuleren.”

Dat je niet alles kunt programmeren, weten de makers van kunstmatige intelligentie ook. Daarom zijn ze zelflerende systemen gaan bouwen, die worden getraind met voorbeelden. In het begin maken die veel fouten, maar ze gaan steeds beter presteren.

Dat kan heel goed werken, maar er schuilt een ethisch gevaar in, zegt Gabriels. “De Europese wetgeving voor gegevensbescherming geeft mensen het recht op explainable artificial intelligence. De maker moet kunnen uitleggen wat het systeem doet. Computerwetenschappers schrikken als ze dat horen. Want, zeggen ze, veel systemen nemen zelf hun beslissingen, en we weten niet precies hoe. Maar dat leidt tot moral disengagement; je laat de verantwoordelijkheid los voor de technologie die je hebt ontwikkeld.”

Rijbewijs blijft nodig

Maar, dat doe je met een kind toch ook? Je voedt het op tot het zijn eigen beslissingen kan nemen en laat het dan los. Gabriels: “Je zou die gedachte op lerende machines kunnen toepassen. Maar doe je dat ook voor een commercieel systeem, voor de machine van een groot bedrijf als Facebook of Google, niet openbaar en gemaakt om advertentie-inkomsten te genereren? De transparantie die in de Europese wetgeving werd verankerd, is nodig om te zien wat kunstmatige intelligentie doet en om van elkaar te leren.”

“We gaan nooit mogen zeggen: we weten niet hoe de computer tot zijn slotsom is gekomen, maar u mag deze woning niet huren. Ik spreek mensen die zeggen: die zelfrijdende auto wordt fantastisch, we hebben straks geen rijbewijs meer nodig. Maar natuurlijk wel! De mens moet altijd zelf het stuur in handen kunnen nemen.”

Katleen Gabriels, Regels voor Robots. Ethiek in tijden van AI, Uitg. VUBPRESS, 172 pp., € 17,95

Lees ook:

Een eerlijk algoritme? Dat is niet zo makkelijk te maken, maar het kán wel

Kan een algoritme eerlijk zijn? Rik Helwegen, net afgestudeerd in kunstmatige intelligentie, ontwikkelde een methode die gevoelige data buiten beschouwing laat.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2019 DPG Media B.V. - alle rechten voorbehouden