Uw profiel is aangemaakt

U heeft een e-mail ontvangen met een activatielink. Vergeet niet binnen 24 uur uw profiel te activeren. Veel leesplezier!

De geheime diensten staan klaar om met algoritmen naar terroristen te speuren

Democratie

Kristel van Teeffelen & Saskia Naafs

© Getty Images

In de nieuwe inlichtingenwet is voor het eerst vastgelegd dat de AIVD en MIVD met computeranalyse grote hoeveelheden data mogen doorzoeken. Maar deugen de algoritmen die daarvoor gebruikt worden wel, en wie controleert dat?

Op internet is alles te koop. Dus ook een datapakket met daarin namen, e-mailadressen en wachtwoorden van meer dan honderd miljoen mensen. Beschikbaar gekomen na een hack of omdat een bedrijf de data lekte. De koper? De geheime diensten.

Lees verder na de advertentie

Dat de AIVD en de MIVD op zo'n manier aan gegevens komen, weten we door een openbaar rapport van de Commissie van Toezicht op de Inlichtingen- en Veiligheidsdiensten (CTIVD). Die bepaalde dat dergelijke aankopen weliswaar privacy schendend zijn en informatie bevatten van mensen die helemaal niet in het vizier van de diensten zijn, maar dat ze van belang kunnen zijn voor een onderzoek. Dus zolang de veiligheidsdiensten er niet te gretig mee omgaan, mogen ze de bulksets kopen.

Zo'n pakket met gegevens van honderd miljoen mensen toont nog iets: de omvang van de berg data waar de AIVD en MIVD mee te maken krijgen. En die berg wordt alleen maar groter. Als de nieuwe Wet op de Inlichtingen- en Veiligheidsdiensten (Wiv) van kracht wordt, mogen de diensten ook ongericht de internetkabel gaan tappen. Dat wil zeggen: al het dataverkeer van een kabel filteren op zoek naar een bepaalde dreiging.

Patronen

In de aanloop naar het raadgevend referendum op 21 maart over de nieuwe Wiv, gaat het vooral over dat zogenoemde 'sleepnet'. Maar er staat nog iets voor het eerst in de wet: de geautomatiseerde data-analyse. De AIVD en MIVD mogen hun algoritmen op de berg met verzamelde data loslaten, op zoek naar die ene persoon die aan een bepaald profiel voldoet. Of die volgens de computer patronen laat zien die kunnen duiden op extremistisch gedrag.

Maar hoe betrouwbaar zijn die analyses? Experts waarschuwen dat algoritmen het lang niet altijd bij het juiste eind hebben, en vrezen dat het toezicht daarop bij de inzet door de geheime diensten beperkt is, blijkt uit een rondgang van het Platform voor onderzoeksjournalistiek Investico voor Trouw en De Groene Amsterdammer.

De vraag is hoe effectief het is om een algoritme een gebeurtenis te laten voorspellen die nauwelijks voorkomt

Dat algoritmen niet perfect zijn, komt naar voren in vrijwel alle studies naar het fenomeen. Sterker nog, er zit standaard een aantal valkuilen in big data-analyses ingebakken, die door de Wetenschappelijke Raad voor het Regeringsbeleid in 2016 in het rapport 'Big data in een vrije en veilige samenleving' worden verwoord. Zo kan gebruik ervan door de overheid tot discriminatie leiden en tot stigmatisering van een bepaalde groep burgers, waarschuwt de WRR.

Ook TNO-onderzoeker Selmar Smit wijst op die vooringenomenheid. Hij doet onderzoek naar big data in de veiligheidsbranche. "Stel dat je bij terroristische aanslagen alleen de gegevens invoert van de daders die je pakt. Dat zijn misschien wel de domme terroristen. Dan is zo'n systeem blind voor andere daders." Mensen zijn eerder geneigd om buiten de box te denken. Computers doen precies wat er van ze gevraagd wordt, zegt Smit.

Black box

Filosoof en jurist Marc Schuilenburg, die zich aan de Vrije Universiteit bezighoudt met veiligheid, vreest dat er te weinig controle is op de algoritmen die de diensten gebruiken. Er wordt aan de voorkant getoetst of de gegevens verzameld mogen worden en er is controle achteraf. Maar hoe zit het daartussenin, als de gegevens daadwerkelijk worden verwerkt? Schuilenburg: "De hele Wiv hangt vol met toezicht, maar we controleren niet de tools op grond waarvan de veiligheidsdiensten beslissingen nemen. Dat blijft een black box."

Het is, zoals met bijna alles wat de geheime diensten doen, moeilijk te achterhalen welke algoritmen worden gebruikt. Gedeeltelijk worden de systemen waarschijnlijk intern ontwikkeld. Uit recente vacatures blijkt dat de AIVD op zoek is naar mensen die systemen kunnen maken die een grote hoeveelheid data kunnen analyseren. Maar je kunt zulke computerprogramma's ook aankopen bij allerlei bedrijven. Zo werd in 2013 bekend dat de geheime diensten het softwaresysteem met de codenaam 'Argo II' hadden gekocht.

De kans is groot dat iemand onterecht door het algoritme als gevaarlijk wordt bestempeld

Zelf noemt de AIVD de inzet van die geautomatiseerde data-analyse essentieel voor het werk, helemaal als er straks ongericht data onderschept mogen worden van de internetkabel. Juist die nieuwe bevoegdheid vraagt om goed werkende algoritmen. Onvermijdelijk komen er in de nieuwe situatie veel gegevens van onschuldige burgers door de systemen van de diensten. Die moeten worden weggefilterd, alleen de potentiële terrorist moet overblijven.

Effectief

De vraag is hoe effectief het is om een algoritme een gebeurtenis te laten voorspellen die nauwelijks voorkomt, zegt de Deense big data-onderzoeker Timme Munk. De veiligheidsdiensten zijn er niet om de volgende woninginbraak te voorspellen - dat is aan de politie. Ze moeten allerlei veel zeldzamere gevaren voor de nationale veiligheid zien aankomen. Munk: "Het is lastig om dat soort gebeurtenissen te voorspellen. Vooral omdat we nauwelijks weten wanneer en hoe iemand met extremistische denkbeelden uiteindelijk terrorist wordt."

En dat terwijl de kans dat iemand onterecht door het algoritme als gevaarlijk wordt bestempeld, wel groot is, stelt de Deen. Hij noemt het gebruik van voorspellende algoritmen voor terrorisme daarom niet alleen ineffectief, maar ook risicovol. Helemaal nu de politieke druk op de diensten op dit moment groot is. Liever zullen ze het zekere voor het onzekere nemen en iemand extra in de gaten houden, dan dat er iets over het hoofd wordt gezien, vreest hij.

Munks alternatief? Ouderwets uitgaan van sociale relaties. "Laat een algoritmen niet in een grote bak met data zoeken naar potentiële terroristen, maar laat ze bijvoorbeeld het netwerk van iemand die al in het vizier is van de inlichtingendiensten uitpluizen."

Snippers informatie

Juist omdat de diensten het vaak maar met snippers informatie moeten doen over mogelijk gevaarlijke mensen, is die hulp van computeralgoritmen zo belangrijk, zegt Paul Abels. Hij is oud-AIVD'er en bijzonder hoogleraar inlichtingenstudies aan de Universiteit Leiden. "Vroeger moest je met kaartenbakken aan de slag. Nu heb je veel meer gegevens. Die geautomatiseerde data-analyse is een middel waar vrijwel alles mee begint."

Volgens Abels vinden de AIVD en MIVD het zelf ook belangrijk dat de algoritmen die ze gebruiken deugen. "Levert een algoritme foute targets op, dan slaan de inlichtingendiensten een flater. Dat zullen ze zelf willen voorkomen. Ze hebben een beperkte capaciteit die ze niet op de verkeerde personen willen inzetten."

De vraag is of je als mens nog wel in staat bent om echt te snappen hoe het algoritme werkt

In de nieuwe Wiv staat een aantal regels waaraan de diensten zich moeten houden als ze big data-analyse toepassen. Gaat het om data die via het ongericht tappen van de internetkabel zijn binnengehaald, dan moet de minister toestemming geven voordat de gegevens verder verwerkt mogen worden. Een nieuw opgetuigde commissie controleert vervolgens de minister.

Gaat het om analyse van informatie van opsporingsinstanties of die via een 'gewone bevoegdheid' is binnengehaald - bijvoorbeeld gegevens uit openbare bronnen zoals sociale media - dan is die toestemming niet nodig. Dat terwijl de groep wetenschappers die een privacy impact-onderzoek deed naar de nieuwe wet, wel adviseerde ook daarvoor een handtekening te vragen.

Mensen

Wat ook in de Wiv is vastgelegd, is dat er altijd een mens aan de beslissing te pas moet komen. Dat wil zeggen dat het niet zo mag zijn dat als de computer iemand als potentieel gevaarlijk bestempelt, de dienst direct een surveillanceteam op die persoon mag afsturen. Altijd moet een mens die beslissing nemen.

De CTIVD, die achteraf toetst of de diensten zich aan de regels hebben gehouden, zegt dat het helpt dat de geautomatiseerde data-analyse nu expliciet in de wet staat. Ze toetsen de rechtmatigheid, maar ook de betrouwbaarheid en kwaliteit van de gegevensanalyse, zegt het toetsingscollege. De afgelopen periode zijn er mede daarvoor mensen aangenomen met meer technische kennis. Zo begint er binnenkort een dataspecialist. En gaat de toezichtscommissie nog dit jaar op zoek naar een expert op het gebied 'cyber en internettechnologie'.

Alleen, de AIVD en MIVD moeten eerst nog zelf vastleggen hoe ze de betrouwbaarheid en kwaliteit van hun gegevensanalyse waarborgen. Die zogenoemde 'zorgplicht' staat na blijvend aandringen van de CTIVD wel in de wet, maar daar staat niet hoe die precies ingevuld moet worden.

En de vraag is of je als mens nog wel in staat bent om echt te snappen hoe het algoritme werkt. Helemaal nu veel van de systemen zelflerend worden.

Zelflerend

Zo sprak het Platform voor Onderzoeksjournalistiek Investico met Peter de Kock van Pandora Intelligence. Hij ontwikkelde zo'n complex en zelflerend algoritme om terroristische aanslagen te zien aankomen, en trends te kunnen ontdekken. Van het ministerie van defensie kreeg zijn bedrijf onlangs een prijs om het systeem verder te ontwikkelen. Juist omdat het zo ingewikkeld is om te begrijpen waarom een computer tot een bepaalde conclusie komt, moet je de algoritmen transparant maken en altijd blijven controleren, vindt De Kock.

Filosoof en jurist Schuilenburg vreest dat de toezichthouders van de inlichtingendiensten straks vooral een rechtmatigheidscontrole doen: mag het volgens de wet? "Maar wat ze eigenlijk zouden moeten doen is een doelmatigheidscontrole. Werkt het wel? En hoe zorg je bijvoorbeeld dat je zo veel mogelijk missers uitsluit?"

Lees ook

Veel steden hangen inmiddels vol met sensoren die bijvoorbeeld bijhouden of een parkeerplek bezet is, of die weten dat een vuilcontainer vol is. De beloften van deze ‘smart cities’ zijn groot, maar tegen welke prijs?

© TR Beeld

Dit verhaal kwam tot stand in samenwerking met Investico, het non-profit platform voor onderzoeksjournalistiek.


Het e-mailadres bij dit profiel is nog niet bevestigd. Een link om te bevestigen kunt u vinden in uw inbox.
Bent u de link kwijt? Vraag hier een nieuwe aan.

Wachtwoord is niet correct

tonen

Wachtwoord komt niet overeen

tonen

U moet akkoord gaan met de gebruiksvoorwaarden

Deel dit artikel

De vraag is hoe effectief het is om een algoritme een gebeurtenis te laten voorspellen die nauwelijks voorkomt

De kans is groot dat iemand onterecht door het algoritme als gevaarlijk wordt bestempeld

De vraag is of je als mens nog wel in staat bent om echt te snappen hoe het algoritme werkt