Gezocht: een robotsoldaat die morele keuzes maakt

Fragment uit de film Transformers 3. Vooralsnog zijn autonome gevechtsrobots alleen nog te zien op het witte doek. Beeld Transformers

Drones die in Afghanistan talibanstrijders neerschieten zijn slechts het begin. Het Amerikaanse leger werkt aan robotsoldaten die volledig autonoom op pad gaan. Maar wat als zij ethische keuzes moeten maken?

2035. Een militaire robot rent door een oorlogsgebied om bij een noodhospitaal zo snel mogelijk donorbloed en andere materialen af te leveren. Onderweg ziet hij zwaargewonde soldaat. Moet hij zijn bezorging staken en de man helpen?

Ander voorbeeld. Een vuurvaste brandweerrobot waadt door de vlammen van een brandend huis om een achtergebleven bewoner te redden. In de slaapkamer treft hij niet alleen de vader des huizes, maar ook zijn zoontje aan. Wie van de twee moet hij redden?

Onderzoekers weten inmiddels één ding zeker: de antwoorden op die vragen laten zich niet vatten in een programmeertaal of in algoritmes. Daarvoor zijn ze veel te complex en te afhankelijk van specifieke gevallen. Ook een autonome robot die alle regels van een militair handboek kent, belandt voortdurend in situaties die weerbarstiger zijn dan de theorie.

Robot moet zijn daden kunnen verantwoorden
De mogelijke oplossing is om een robot zo te construeren dat hij zelfstandig morele keuzes kan maken. Het vermogen om scenario's te overwegen en de gevolgen van zijn handelen te overzien zou dan worden geprogrammeerd, de rest moet hij zelf doen. Kan zo'n wezen bestaan?

De Amerikaanse marine vermoedt van wel. De onderzoekstak Office of Naval Research geeft een handvol universiteiten de komende 5 jaar zo'n 7,5 miljoen dollar (5,5 miljoen euro) uit te zoeken of we rijdende, vliegende en lopende computers een besef van goed en kwaad kunnen bijbrengen.

Zulke autonomie gaat veel verder dan alleen knopen doorhakken, vertelt hoogleraar computerwetenschap Matthias Scheutz op technologiesite The Verge. Scheutz leidt de experimenten aan de Tufts Universiteit (nabij Boston), een van de instituten die de marine uitkoos voor haar onderzoek.

Een robot moet volgens hem afwegingen kunnen maken en achteraf kunnen vertellen waarom hij juist die ene keuze heeft gemaakt. "Robots worden steeds complexer, steeds intelligenter en steeds autonomer", meent hij. "We willen zeker geen toekomst waarin ze niet gevoelig zijn voor morele kwesties."

De zelfrijdende auto is geen toekomstmuziek meer
Antwoorden heeft Scheutz nog niet; daarvoor is zijn onderzoek nog te prematuur. Maar vrijwel niemand twijfelt eraan dat de ethiek van robotica steeds belangrijker wordt. Het Amerikaanse leger maakt al volop gebruik van gewapende (maar wel door mensen bestuurde) drones en in de regio rond San Francisco mogen later dit jaar zelfrijdende auto's de weg op.

Google's wagens zijn in een aantal staten al toegestaan. Maandag maakte minister Schultz bekend dat de komende jaren ook in Nederland grootschalige tests met zelfrijdende wagens moeten plaatsvinden.

Ook aan legerrobots wordt volop gewerkt, al moet er nog heel wat gebeuren voordat die puzzel is opgelost. Robots moreel besef geven is bijzonder lastig, vertelt voorzitter Wendell Wallach van de studiegroep Technologie en Ethiek van de Amerikaanse Yale Universiteit in tijdschrift The Atlantic.

Volgens Wallach is het eenvoudigste niveau de 'operationele moraal', waarbij de keuzes die een robot moet maken zo beperkt zijn dat de maker van tevoren reacties op alle scenario's kan programmeren. Lastiger is de 'functionele moraal', waarbij de scenario's en keuzes zo talrijk zijn dat de robot zelf afwegingen moet maken.

Maar, zo meent Wallach, áls het lukt om hulp- en gevechtsrobots een functionele moraal te geven, dan kan de manier waarop we oorlogen voeren radicaal veranderen. Wallach: "Robots kunnen in potentie veel betere morele keuzes maken dan mensen. Ze kunnen veel meer afwegingen maken".

De L3S, een robot-prototype van de Amerikaanse overheid. Hij is ontworpen om met soldaten op pad te gaan en zware bagage te dragen. Beeld afp

Werken aan een digitale 'rede'
Een van de eerste stappen in die richting is de 'ethische opzichter' die ethicus Ron Arkin van het Georgia Technologie Instituut heeft gebouwd. Die software weegt allerlei regels tegen elkaar af op het moment dat een gevechtsrobot in een onvoorziene situatie belandt.

Toen bekend werd dat de Amerikaanse marine budget ging verstrekken aan de universiteit met het beste onderzoeksplan, lanceerde Arkin een nieuw idee: hij wilde de morele ontwikkeling van kinderen bestuderen. Die zou hij vervolgens digitaal gaan nabootsen.

Maar Arkin viste achter het net: de marine koos uiteindelijk voor Scheutz' voorstel om te onderzoeken waar mensen aan denken wanneer ze een morele keuze maken. Die overwegingen wil Scheutz uitwerken tot een soort softwarematige 'rede'.

'Robot weet niet wat lijden is'
Lang niet iedereen is overtuigd dat zo'n idee kans van slagen heeft. Op de nieuwssite Defense One wijst hoogleraar robotica Noel Sharkey van de Universiteit van Sheffield op de wezenlijke verschillen tussen mens en machine. Je kunt pas ethisch denken als je je in anderen kunt verplaatsen, meent Sharkey.

Collega's als Arkin en Scheutz zien dat volgens hem over het hoofd. "Je moet weten wat het is om te lijden. Je kunt een robot uitrusten met een paar ethische regels, maar ten diepste is hij totaal onverschillig. Robots die gewone soldaten helpen hebben volgens Sharkey nog enige kans van slagen. Maar de bouw van autonome gevechtsrobots, "dat zou zeer verontrustend zijn".

Ook is het nog maar de vraag of het gebruik van zulke robotsoldaten juridisch groen licht krijgt. Christof Heyns, buitengewoon rapporteur van de Verenigde Naties, riep vorig jaar al op tot een moratorium, een juridische blokkade.

Volgens Heynz is er alle reden om aan te nemen dat "staten autonome robots zullen gebruiken voor gerichte dodelijke aanvallen". Of de VN de wapens kan tegenhouden is nog maar de vraag. Heynz is ook tegenstander van drone-aanvallen, en die voert het Amerikaanse leger jaarlijks toch honderden keren uit.

Voorlopig moeten de voorstanders van morele gevechtsrobots eerst een ander probleem oplossen: perceptie. Robots kunnen alleen de juiste keuzes maken als ze compleet op de hoogte zijn van wat er om hen heen speelt. Nu lukt hen dat nog onvoldoende, schrijft The Verge. Voordat robots op pad mogen om mensen te redden en vijanden uit te schakelen moeten ze eerst maar eens zorgen dat hun zintuigen goed werken.

Een drone van het Amerikaanse leger Beeld epa
Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright. Linken kan altijd, eventueel met de intro van het stuk erboven.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2019 DPG Media B.V. - alle rechten voorbehouden