Uw profiel is aangemaakt

U heeft een e-mail ontvangen met een activatielink. Vergeet niet binnen 24 uur uw profiel te activeren. Veel leesplezier!

Het gevaar van de vechtrobot

Home

Wilfred van de Poll

Amerikaanse mariniers oefenen met een robot op poten die als pakezel fungeert. ©

Robots kunnen nuttig zijn. Maar als ze gebruikt worden op het slagveld, hoe gevaarlijk worden ze dan? Wetenschappers en mensenrechtenactivisten pleiten voor een ban op deze 'autonome wapens'.

De tribune joelt. Hubo, een mensachtige robot van Zuid-Koreaanse makelij, beklimt traag maar soepeltjes een trap van vier treden. Zijn zilverkleurige lijf glimt in de zon. Het is begin juni, in het Californische Pomona strijden 23 robots in de finale van de 'DARPA Robotic Challenge 2015'.

De fine fleur van 's werelds robotica-instituten beet zich twee jaar vast in de missie: een robot maken die kan helpen bij rampen zoals bij de kerncentrale in Fukushima, het liefst zo zelfstandig mogelijk. Hubo moest een autootje langs obstakels sturen, een deur openen, een kraan vinden en uitdraaien, een gat in een muur boren, een schakelaar omzetten, over puin heen stappen en tenslotte een trap oplopen. Over dit alles deed Hubo 44 minuten en 28 seconden. En daarmee won hij.

Voor de meest geavanceerde robot ter wereld ziet Hubo er nog wat sloom en onbenullig uit. Maar vergis je niet, zegt Lambèr Royakkers. Als ethicus doet hij aan de Technische Universiteit Eindhoven onderzoek naar kunstmatige intelligentie. Zijn boek 'Just Ordinary Robots' verschijnt binnenkort bij Routledge. "De ontwikkelingen gaan snel."

Zelfrijdende auto's
Hubo dient een nobel doel: helpen bij rampen. Maar de wedstrijd werd uitgeschreven door DARPA, die ook de meedingende robots financierde. En DARPA ('Defense Advanced Research Projects Agency') is de denktank van de Amerikaanse defensie, die op nieuwe wapensystemen broedt en 'technische verrassingen' voor het slagveld bedenkt.

Royakkers: "Dat humanitaire verhaaltje was natuurlijk een façade. DARPA intevesteert alleen in innovatie waar ze zelf de vruchten van hoopt te plukken. Met die 'challenges' begonnen ze tijdens de Irakoorlog. Bij de eerste, in 2004, was de missie: zelfrijdende auto's die door een woestijn rijden."

Die oorlog in Irak, waar duizenden soldaten omkwamen door bermbommen, bracht de robotisering van het Amerikaanse leger in een stroomversnelling, zegt Royakkers. "Aan het begin gebruikten de VS geen grondrobots in Irak. Tegen 2008 waren er 12.000."

Sindsdien gaat het hard. Amerika pompt jaarlijks 4,8 miljard dollar in de ontwikkeling van militaire robots, en ook Rusland, China en India investeren volop in robottechnologie.

Lees verder na de advertentie
Aan het begin gebruikten de VS geen grondrobots in Irak. Tegen 2008 waren er 12.000

Voetbalwedstrijd tussen robots in China. © ap

Niet iedereen staat op de tribune te joelen. Bijna 19 duizend mensen, waaronder gerenommeerde wetenschappers als Stephen Hawking, ondertekenden een open brief die oproept tot een verbod op vechtrobots. Want wat gebeurt er als robots als Hubo, of zijn nog slimmere nazaten, een automatisch geweer mee krijgen? En in handen komen van malafide regimes en terroristen?

De briefschrijvers vrezen een wapenwedloop, waardoor het makkelijk wordt om aan zelfvurende wapens te komen. Ga maar na. Je hebt geen verrijkt uranium nodig, software is vaak vrij eenvoudig te kopiëren, een robot is makkelijk te verslepen of te verbergen en kost geen miljarden. Ze kunnen wel eens de 'kalasjnikovs van de toekomst' worden.

Waarschuwingen voor de dystopische kanten van robotisering zijn niet nieuw. Wel nieuw is dat dit geluid nu van robotici zélf komt, zegt Royakkers. Tot nu toe waren het vooral filosofen, ethici en activisten die de trom roerden.

Ban
Filosoof Peter Singer waarschuwde al in 2009 voor de komst van de robots, die hij vergeleek met de uitvinding van het buskruit en de atoombom. In hetzelfde jaar werd de 'International Committee for Robot Arms Control' opgericht. De VN pleitten in 2013 voor een ban en Human Rights Watch begon de 'Campaign to Stop Killer Robots'.

'Killer robots'. Dat klinkt nogal eng. In jargon heten ze LAWS: 'Lethal Autonomous Weapon Systems'. 'Autonoom' betekent hier simpelweg dat er geen mens meer aan te pas komt, zegt Jeroen van den Hoven, hoogleraar ethiek en technologie aan de TU Delft. Of op zijn minst dat die op veel grotere afstand staat. Er is geen menselijke vinger die de trekker overhaalt; de robot doet dit zelf.

Zulke wapens, die zelfstandig schieten, worden op dit moment nog niet of nauwelijks gebruikt. Dat zou in sommige gevallen al wel kunnen. Zuid-Korea heeft langs de grens met Noord-Korea bijvoorbeeld statische robots neergezet met een warmtesensor, een bewegingsdetector, machinegeweren en een granaatwerper die een doel tot 3,2 kilometer afstand kan raken. Automatisch. Ze staan nu nog onder controle van mensen, maar in principe is dat niet nodig.

De robots die het Amerikaanse leger gebruikt, zijn niet autonoom. Althans niet officieel, zegt Royakkers: "Dankzij Edward Snowden weten we dat de Amerikanen wel degelijk een soort autonome drone hebben. Die geef je een telefoonnummer en vervolgens de opdracht: traceer dit mobieltje en schiet de drager neer."

Waarschuwingen voor de dystopische kanten van robotisering zijn niet nieuw. Wel nieuw is dat dit geluid nu van robotici zélf komt

De MAARS (Modular Advanced Armed Robotic System) is een klein tankje. © reuters

Die drone is een uitzondering. De duizenden overige drones worden op afstand bestuurd, net als de nieuwste generatie grondrobots, zoals de MAARS, een op afstand bestuurbaar miniatuurtankje met een machinegeweer erop. Toch: de stap om deze wapens autonoom te maken is klein, zegt Tom Heskes, hoogleraar Kunstmatige Intelligentie aan de Radboud Universiteit Nijmegen.

De techniek is er vaak al, zegt hij. Al moet je die dan zoeken in civiele toepassingen. "Het probleem is dat die eenvoudig te vertalen zijn naar militair gebruik. Het meeste onderzoek naar kunstmatige intelligentie vindt bijvoorbeeld plaats in de geneeskunde. Prachtig. Maar de precisietechniek die nodig is voor een chirurgrobot kan militair natuurlijk ook interessant zijn. Of neem 'bijen-drones': piepkleine, insectachtige vliegtuigjes die je in een zwerm van duizenden tegelijk kunt inzetten in de landbouw of om klimaatverandering te meten. Daar kun je in een oorlog ook het nodige mee doen."

Zwerm-techniek
Er zijn al tests uitgevoerd waarbij één militair meerdere onbemande vliegtuigen tegelijk kan activeren in zogenoemde 'zwermen', die in onderlinge afstemming hun taak uitvoeren. Volgens Royakkers zal deze 'zwerm-techniek' al binnen een paar jaar worden toegepast. In een later stadium moeten vliegtuigen, zo is de ambitie, volledig autonoom opereren. Dat zal pas rond 2050 gebeuren, verwacht het Pentagon zelf.

Verder zijn er nu al de wat exotisch ogende initiatieven van DARPA, zoals 'Big Dog', een soort gerobotiseerde pakezel die volledig zelfstandig kan lopen. Boston Dynamics en MIT hebben, met geld van DARPA, een robot-cheetah gemaakt die bijna 50 kilometer per uur kan rennen en over obstakels springt.

Maar de kalasjnikov van de toekomst moet je niet in die hoek zoeken, denkt Heskes. "Dan denk ik toch eerder aan drones. Bijvoorbeeld een quadcopter, een kleine, zelfvliegende helikopter. Zet daar bewegingssensoren op, gezichtsherkenning - daar wordt al hard aan gewerkt - een automatisch geweer en je bent er."

Hoe ellendig dit voor de mensheid ook allemaal kan uitpakken, van Terminator-scènes zijn we hier nog ver verwijderd. Robots die volkomen 'out of control' zijn en zich tegen hun menselijke makers keren - voor zo'n scenario is nog wel wat meer nodig. Namelijk: zelflerend vermogen. Dat is nog toekomstmuziek. De komende twintig jaar ziet Royakkers zelflerende robots in ieder geval nog niet verschijnen. Maar als ze er eenmaal zijn, en volgens hem is dat zeker mogelijk, wordt het de grote vraag wie er nog verantwoordelijk kan worden gehouden voor hun gedrag.

Waarschuwingen voor de dystopische kanten van robotisering zijn niet nieuw. Wel nieuw is dat dit geluid nu van robotici zélf komt

De BEAR (Battlefield Extraction Assist Robot) haalt gewonden van het slagveld. © US Army

Royakkers: "Nu is de situatie nog helder. Een menselijke piloot bestuurt de drone, ook al is dat vanuit een schuur in Nevada. Bij meer autonome wapens is de vraag waar de verantwoordelijkheid rust, in principe ook nog te overzien. Die rust bij diegene die het wapen op pad stuurde en de oorspronkelijke opdracht gaf, hoe vaag die ook was."

Maar wat, zegt hij, als je zelflerende robots hebt die buiten hun boekje gaan? "Een soldaat die een onschuldige burger neerschiet, kan berecht worden. Moet je robots ook gaan berechten? Is dat zinvol, een machine straffen? Machines hebben geen persoonlijkheid, je kunt ze niet om berouw vragen. Je kunt ze hooguit repareren. Vervangen. Een update geven."

Geprogrammeerd
Eigenlijk is pas bij zo'n zelflerende robot echt sprake van 'autonomie', zegt Jeroen van den Hoven. "Robotici onderscheiden niveau's van autonomie. Het meest basale is het uitvoeren van een taak als er aan bepaalde voorwaarden is voldaan. Een hoger niveau is het toepassen van vage regels die ruimte laten voor eigen 'interpretatie'. In dat stadium zitten we nu. Robots kunnen handelen op een manier die voor ons onvoorspelbaar is. Maar ze doen nog steeds waartoe ze zijn geprogrammeerd. Het hoogste niveau is dat ze de doelen van het systeem zélf veranderen. De vraag wordt dan: is er nog betekenisvolle menselijke controle mogelijk?"

Zullen robots ooit zo autonoom worden dat ze echt hun eigen doelen gaan stellen? Van den Hoven denkt van wel. "Ook al doet hij dat anders dan wij. Termen als 'leren', 'begrijpen' en 'beslissen' zijn, toegepast op robots, natuurlijk maar metaforen. Er gebeurt in de chips van een robot iets totaal anders dan in de schedelpan van een mens."

Een soldaat die een onschuldige burger neerschiet, kan berecht worden. Moet je robots ook gaan berechten?

Hoogleraar Heskes denkt dat drones de 'kalasjnikovs van de toekomst' kunnen worden. © HH

Maar dat is niet per se een geruststellende gedachte, zegt Van den Hoven: "Wij zijn op een punt gekomen dat we onze eigen maaksels vaak niet meer kunnen volgen. Van 'neurale netwerksystemen' snappen we vaak zelf niet meer hoe ze werken. Je stopt er iets in, er komt iets uit, de weg daartussen is een black box. Sterker nog: systemen kunnen zó complex worden dat ze een bepaald 'tipping point' bereiken en dingen doen die we niet van ze hadden gevraagd of verwacht. Neem computers die op de beurs met elkaar handelen. Ze kunnen soms in een fractie van een seconde massaal een neerwaartse spiraal creëren, zonder dat mensen begrijpen hoe of waarom. Dan kunnen handelaren alleen nog maar de stekker eruit halen."

Hij vervolgt: "Sommigen zeggen dan: get over it, dit is de volgende stap in de evolutie. Flauwekul. We zijn ook opgehouden asbest te gebruiken. We houden met een heleboel dingen op. Wij kunnen zelf beslissen of we de toekomstige huisdieren van robots worden."

Als-dan-regels
De meningen over de vraag of de 'killer robot' eraankomt, lopen onder experts uiteen. Martijn Wisse, hoogleraar biorobotica aan de TU Delft, staat volledig achter een ban op onderzoek naar militaire robots. Maar het idee dat een robot ooit echt autonoom wordt, noemt hij onzin.

"Wapens hebben geen 'wil'. Zullen ze ook niet krijgen. Een robot, hoe intelligent ook, blijft in wezen gewoon een grote verzameling als-dan-regels. Er zit geen magie in. Ze 'denken' niet. Neem die computerprogramma's op de beurs. Je geeft ze een opdracht: maak zoveel mogelijk winst. Vervolgens leren ze zelf hoe ze dat moeten doen en ze worden er steeds beter in. Het kan opeens uit de hand lopen, ja. Maar nog steeds is hun doel hetzelfde: winst maken." Ook Tom Heskes kan niets met angstzaaierij voor 'killer robots'. "Robots die de mensheid gaan uitroeien, hou toch op."

Een robot, hoe intelligent ook, blijft in wezen gewoon een grote verzameling als-dan-re­gels. Er zit geen magie in

Deel dit artikel

Aan het begin gebruikten de VS geen grondrobots in Irak. Tegen 2008 waren er 12.000

Waarschuwingen voor de dystopische kanten van robotisering zijn niet nieuw. Wel nieuw is dat dit geluid nu van robotici zélf komt

Waarschuwingen voor de dystopische kanten van robotisering zijn niet nieuw. Wel nieuw is dat dit geluid nu van robotici zélf komt

Een soldaat die een onschuldige burger neerschiet, kan berecht worden. Moet je robots ook gaan berechten?

Een robot, hoe intelligent ook, blijft in wezen gewoon een grote verzameling als-dan-re­gels. Er zit geen magie in