Autonoom wapentuig

Gaan machines zo het oorlogvoeren overnemen van de mens?

MQ-9 reaper Beeld FREE
MQ-9 reaperBeeld FREE

De wetenschap ontwikkelt in hoog tempo autonome systemen, ook voor militaire doeleinden. Dat roept de vraag op hoeveel zeggenschap mensen moeten hebben over aanval en verdediging.

Monique Siemsen

De MQ-9 reapers die de Nederlandse krijgsmacht heeft aangeschaft, zullen medio 2023 volledig operationeel zijn. De Reaper is een onbemand vliegtuig, dat officieel slechts voor verkenning bedoeld is en dus niet is bewapend. Wel beschikt hij over ophangingspunten, waaraan wapensystemen kunnen worden bevestigd. Defensie geeft aan de bewapening van de Reaper verder te onderzoeken en te ontwikkelen, in het kader van de operationele meerwaarde.

De Reaper figureert geregeld in discussies over de ontwikkeling van autonome wapens. Ten onrechte. In die discussie worden geautomatiseerde en autonome wapens vaak op een hoop gegooid. Maar veel militaire systemen die vooral in de media als autonoom worden aangemerkt, zijn dat feitelijk niet. Zoals de Reaper. Het klopt dat het systeem onbemand is en in hoge mate geautomatiseerd. Maar er is wel degelijk een piloot die het voertuig bestuurt. Deze piloot zit niet in de Reaper, maar is uit de cockpit gehaald en bestuurt het vliegtuig vanaf een veilige locatie aan de grond.

De MQ-9 Reaper is een onbemand vliegtuig dat ongeveer 14 uur achtereen in de lucht kan blijven. Het  is 24 uur per dag tot circa 13 kilometer hoogte inzetbaar. Beeld rv
De MQ-9 Reaper is een onbemand vliegtuig dat ongeveer 14 uur achtereen in de lucht kan blijven. Het is 24 uur per dag tot circa 13 kilometer hoogte inzetbaar.Beeld rv

Een heel stuk zelfstandiger waren de Turkse drones die in maart 2020 in de Libische burgeroorlog werden ingezet door bevrijdingsleger LNA. De VN heeft dit geregistreerd als de eerste aanval met autonome wapens. De bestemming van de drones was met GPS vastgelegd en er was een algoritme dat de drones moest vertellen wie hun doelen waren.

Een nieuw tijdperk

Met dat VN-oordeel zijn we een nieuw tijdperk ingegaan, zegt militair historicus Christ Klep. “Een paar jaar geleden zou ik nog niet hebben gezegd dat volledig automatische systemen snel realiteit zouden worden. De technische innovaties gaan razendsnel en iedere twee tot vier jaar zijn militaire systemen aan vervanging of updates toe. We kunnen onze kop in het zand steken, maar er is wel iets aan de hand. Er is geen sprake meer van een wapenwedloop. Het is een absolute speedrace geworden.”

De race wordt bepaald door de concurrentie tussen grootmachten, net als in de Koude Oorlog. Maar bovendien, zegt Klep, woedt er in veel krijgsmachten tegenwoordig ook interne competitie. Menige landmacht en marine kijkt gretig naar de ontwikkelingen in de luchtmacht, door militairen de derde dimensie genoemd. Vooral die derde dimensie heeft tot nu toe van innovaties geprofiteerd. Het luchtruim is open, zonder veel obstakels, ideaal voor autonome systemen. Integrale wapens, inzetbaar in de hele krijgsmacht, staan echter hoog op de verlanglijstjes. En dat betekent: autonome systemen die kunnen schakelen tussen lucht-, land- en watervoertuigen.

Die integratie van systemen werkt grootschalige inzet van autonome wapens in de hand, meent Klep. “Nu gaat het nog om een zwerm drones of een tiental vliegtuigen in relatief overzichtelijke gebieden als woestijnen, waar schade aan mens en omgeving nog enigszins beperkt blijft. Maar hoe ziet autonome oorlogsvoering eruit tijdens een grootscheepse operatie, als 100.000 systemen zich in beweging zetten, door de stad of in oerwouden?”

Autonome systemen kennen geen sentimenten

De Adviesraad Internationale Vraagstukken, een raadgever van de Nederlands regering, heeft recentelijk gepleit voor een wereldwijd verbod op volledig autonome wapens, en het kabinet aangeraden juist te investeren in automatische wapens, waarbij menselijke besluitvorming essentieel blijft.

Maar niet overal ziet men ethische bezwaren tegen autonomie in wapenvoering. In de Verenigde Staten beargumenteren voorstanders in het Congres juist het tegendeel: het zou een ethisch voordeel zijn als menselijke besluitvorming in militair handelen aan banden wordt gelegd. Mensen zijn immers gevoelig voor religieuze en raciale sentimenten. Autonome systemen zijn dat niet en zouden daarom meer objectieve en neutrale keuzes maken.

De twee piloten van een MQ-9 Reaper. Zij besturen dit onbemande toestel vanaf een luchtmachtbasis in de staat Nevada. Beeld Getty Images
De twee piloten van een MQ-9 Reaper. Zij besturen dit onbemande toestel vanaf een luchtmachtbasis in de staat Nevada.Beeld Getty Images

Als die visie terrein wint en politieke consensus wordt, zal de menselijke inbreng verdwijnen, voorspelt Christ Klep. “Het kwartje kán zomaar die kant op vallen in de VS. Iedereen kijkt naar landen als Rusland en China, maar bij de introductie van nieuwe wapens zie je democratieën vaak flexibeler reageren op technologische innovaties. En die ook sneller omarmen en implementeren.

“Kijk maar naar de ontwikkeling van atoomwapens: het waren de Amerikanen die toen voorop liepen en het wapen ook voor het eerst gebruikten. En als de stemming in de VS naar pro-autonoom flipt, zullen andere landen volgen. Ook Nederland. Dan kun je niet de kop in het zand steken en als enige die menselijke besturing willen houden.”

Civiele wetenschap wordt militair

De ontwikkeling van autonome militaire middelen gaat gepaard met een toenemende civiele inbreng, zowel academisch als bedrijfsmatig. Ontdekkingen die toevalligerwijs aan het licht komen in wetenschappelijk onderzoek, vinden steeds vaker hun weg naar militaire toepassingen. Zo blijken quantumradars veelbelovend voor het opsporen van ‘stealth’ vliegtuigen, die voor gewone radar niet goed zichtbaar zijn. Een quantumradar werkt met fotonen, lichtdeeltjes.

In deze radartechniek worden paren fotonen gecreëerd die met elkaar verstrengeld zijn – een quantumeffect. Van die paren wordt de ene helft op weg gestuurd om bewegende voorwerpen te detecteren. Als dat deeltje wordt teruggekaatst, kan zijn wederhelft vertellen wat positie en snelheid zijn van het voorwerp dat voor weerkaatsing zorgde. Het levert een extreem gevoelig radarsysteem op: zelfs kleine en laagvliegende objecten worden op die manier toch zichtbaar.

De marine blijft niet achter. Daar wordt gekeken naar de inzet van zeer nauwkeurige zwaartekrachtsensoren in plaats van sonar. Met de meting van de zwaartekracht onder water kan de aanwezigheid van onderzeeboten worden vastgesteld. Want ook een klein object als een onderzeeër laat zijn sporen na in het zwaartekrachtveld. Te klein om te meten voorheen, maar er zijn nu technieken om ook die extreem kleine veranderingen in zwaartekracht te zien.

Slimme drones

Aan de universiteit van Massachusetts hebben wetenschappers drones getraind om zelfstandig sneller te vliegen door ruimtes met obstakels. Hoewel de onderzoeksleiders krachtig ontkennen dat het systeem ontwikkeld is voor militaire doeleinden, hebben zij hun onderzoek gedaan in opdracht van de US State Office for Naval Research.

Hun ontkenning heeft voor Klep weinig betekenis: “Dat de universiteit van Massachusetts bestrijdt dat het om militaire doelstellingen gaat voor die snelle drones, zegt niets. Dat zal best, maar in de praktijk is het zo dat áls er een techniek geschikt is om militair toe te passen, dat ook zal gebeuren. Of dat nu het doel was of niet. Elon Musk blijft ook volhouden dat hij niet voor defensie ontwikkelt. Desalniettemin zullen zijn technieken daar toepassing vinden.”

Het heeft iets positiefs dat wetenschap en bedrijfsleven een groeiende rol hebben in militair onderzoek en ontwikkeling, zegt Klep. “Dat maakt die ontwikkeling hopelijk transparanter. Het is beter dan dat je een militair apparaat hebt, dat verborgen in een technologisch ei van alles en nog wat ontwikkelt en waar je totaal geen zicht meer op hebt.”

Een transparante ontwikkeling van autonome wapensystemen heeft ook een duidelijke keerzijde: kwaadwillende civiele partijen kunnen ook makkelijker profiteren van de nieuwste innovaties. Klep: “De aanval met de Turkse drones was een goed voorbeeld. Daar was geen ingewikkelde software voor nodig. Een algoritme met een paar simpele variabelen, zoals: richt op elk individu langer dan 1.50 meter en alles wat een langwerpig metalen voorwerp van meer dan 50 cm bij zich draagt. Zulke algoritmes zijn in een handomdraai te regelen. Ook voor terroristen.” Zorgelijk, vindt hij, omdat toezicht minimaal is.

Een verbod is het antwoord niet

Een verbod op autonome systemen, zoals de Adviesraad Internationale Vraagstukken bepleit, is niet het antwoord, meent Mark Voskuijl, hoogleraar wapen- en luchtvaartsystemen van de Nederlandse Defensie Academie. “Een pleidooi voor een verbod is zo’n algemene stelling dat die de discussie over een complex vraagstuk volledig plat slaat. Wie heeft er problemen mee als een robot zelfstandig mijnen opruimt? Of denk aan een luchtverdedigingssysteem dat beschermt tegen ballistische raketten. Een dergelijk systeem moet wellicht zo snel reageren dat er helemaal geen tijd is voor menselijk overwegen.”

Een verbod op de ontwikkeling en het gebruik van autonome systemen zou problemen opleveren die niet eenvoudig op te lossen zijn, zegt Voskuijl. Ten eerste zijn internationale afspraken niet makkelijk te realiseren, en toezicht op de naleving van die afspraken wordt helemaal een lastig verhaal. Controle op staten die zich niet aan het verbod houden en heimelijk doorontwikkelen, is onuitvoerbaar. Met alle veiligheidsrisico’s van dien, zoals de verborgen militaire ontwikkeling van Duitsland in de jaren twintig van de vorige eeuw heeft aangetoond.

Voskuijl ziet nog een heikel punt ontstaan. “Buitenstatelijke organisaties, zoals terreurgroepen, kunnen juridische afspraken makkelijk omzeilen. In de Jemenitische Burgeroorlog vond in 2019 een drone-aanval in Saudi-Arabië plaats. Daarbij hebben Houthi-rebellen de verschillende onderdelen online gekocht en over de grens gesmokkeld. Voor 9000 euro hadden de aanvallers een drone met een spanwijdte van 4,5 meter, waar 20 kilo explosieven onder paste. Behoorlijk effectieve wapens, clandestien en toch makkelijk geregeld.”

Afschrikking

De beste reactie op de dreiging van autonome wapens, zegt Voskuijl, is het ontwikkelen van nóg betere autonome systemen. Dat sluit aan op het klassieke concept van afschrikking: dreigen met wapens waarvan je weet dat de andere partij ze ook kan inzetten. Bovendien heb je dan een voorsprong om civiele gevaren het hoofd te bieden.

In de Nederlandse krijgsmacht houdt het kernteam CUAS (Counter Unmanned Aircraft Systems) zich bezig met de detectie en identificatie van drones die zich op locaties bevinden, waar ze niet mogen zijn. Dat gebeurt met radar, camera’s en akoestische detectie. Ook vervolgstappen om die drones onschadelijk te maken, horen tot de taken van CUAS. Neutralisatie van mogelijk schadelijke systemen vindt plaats door opsporing van bestuurders en juridische maatregelen, maar ook met fysieke inzet zoals het vangen of het neerschieten van de drone.

Die acties zijn in dichtbevolkte locaties niet altijd wenselijk. Maar dan zijn er nog andere technische middelen, zoals jamming en spoofing. Jamming is het verstoren van de satellietsignalen van drones met een sterker signaal, waarmee je de besturing in de war kunt brengen. Spoofing gaat verder dan alleen verstoren, dan worden er eigen signalen naar het object gestuurd, waarmee je de besturing overneemt en de bestemming kunt wijzigen.

Defensie start tegenwoordig het ene na het andere technologische project. De afdeling Concept Development & Experimentation experimenteert dan ook heel wat af, naar eigen zeggen. Logisch, beaamt Voskuijl. “Een krijgsmacht zal niet snel van mening zijn dat die de handjes niet wil branden aan al te autonome systemen.”

Toch zit de Nederlandse krijgsmacht niet te springen om ongebreidelde autonomie in de wapenvoering, zegt Voskuijl. “Met kunstmatig intelligente systemen heb je handelingsmogelijkheden die je normaal niet zou hebben omdat je mensenlevens niet op het spel wilt zetten of omdat de inzet van mensen beperkingen heeft. Maar ook kunstmatige intelligentie heeft zijn beperkingen. In een gecontroleerde omgeving een systeem van een algoritme voorzien is een ander verhaal dan de uitwerking in de praktijk. Mocht er toch onverhoopt iets mis zijn met een algoritme, dan kunnen onschuldige burgers daar de dupe van zijn. En hoe makkelijk zal het dan zijn het algoritme te óntleren of een zelfstandige communicatie te onderbreken? Dat zijn vragen die je niet te makkelijk opzij moet schuiven.”

Lees ook:

Met militaire robot wordt oorlog echt niet veiliger

Vrede en veiligheid breng je niet alleen met een geweer, al helemaal niet als de vinger aan de trekker duizenden ­kilometers van het gevaar af zit, stelt Wim Zwijnenburg, projectleider Humanitaire Ontwapening bij PAX.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2022 DPG Media B.V. - alle rechten voorbehouden