Uw profiel is aangemaakt

U heeft een e-mail ontvangen met een activatielink. Vergeet niet binnen 24 uur uw profiel te activeren. Veel leesplezier!

Kunstmatige intelligentie bij de politie: Ook de supercomputer zal fouten maken

Samenleving

Petra Vissers

© Fadi Nadrous

De politie verwacht veel van big data, algoritmes en artificiële intelligentie. Maar ook supercomputers falen, discrimineren of zijn soms onnavolgbaar.

Grote datastromen worden de bloedsomloop van de politie, de computer de nieuwe superdetective. De politie verwacht veel van het nieuwe Politielab Artificiële Intelligentie, zei politieman Theo van der Plas woensdagochtend in Trouw.  Terecht, zegt hoogleraar Ethiek en Techniek Ibo van de Poel van de TU Delft. Maar een wondermiddel zal de nieuwe superrechercheur niet zijn.

Lees verder na de advertentie

“Je moet heel goed nadenken over waar mensen goed in zijn en waar systemen goed in zijn”, zegt Van de Poel. “Je moet zorgen dat je elkaars kracht versterkt, en niet elkaars zwaktes.” De algoritmes en systemen die zelf nadenken zijn volgens hem een nieuw stuk gereedschap in de gereedschapskist van de politie, niet de oplossing voor alle delicten. “Net als mensen zijn ze feilbaar. Ze hebben nadelen.”

Verdachte

Algoritmes, en met name de systemen die zelflerend zijn, zijn bijvoorbeeld niet altijd transparant. Op den duur heeft een systeem zo veel geleerd dat de programmeur ook niet meer weet waarom die een bepaald antwoord geeft op een vraag. “Maar je moet altijd antwoord kunnen geven op de vraag waarom iemand als verdachte wordt beschouwd", zegt Van de Poel. “Wellicht is dat ook een opgave voor de ontwerpers. Die moeten uiteindelijk zo gaan bouwen dat een systeem antwoord kan geven op die vraag in een taal die mensen begrijpen.”

Een algoritme kan je eigen vooroordelen verkleinen, maar ook vergroten. Daar moet iedereen zich bewust van zijn.

Ibo van de Poel

Verder zijn er genoeg voorbeelden van algoritmes die verkeerde patronen aanleren of discrimineren. “Een algoritme kan je eigen vooroordelen verkleinen, maar ook vergroten. Daar moet iedereen zich bewust van zijn.” Een algoritme kan als het ware verstrikt raken in zijn eigen vliegwiel: als het systeem bepaalde buurten aanwijst waar veel criminelen zouden zitten, verschijnt daar meer politie, waardoor meer mensen betrapt worden, waardoor het systeem er steeds sterker van overtuigd raakt dat een bepaalde buurt een broeinest is van bandieten. 

Verbanden

Daarbij betekent een patroon niet per se dat er een verband is tussen het een en het ander. Van de Poel haalt een Amerikaanse website aan waar allerhande cijfers die niets met elkaar te maken hebben, toch een statistisch verband vertonen. Het aantal mensen dat verdrinkt in een zwembad lijkt dan ineens veroorzaakt door het aantal films van acteur Nicholas Cage. “Een mens begrijpt meestal dat die statistiek niet echt een oorzakelijk verband aantoont. Een computer niet zonder meer.”

Al met al is het volgens Van de Poel belangrijk dat de politie goed nadenkt over de transparantie en de werking van artificiële intelligentie. De agenten die uiteindelijk met de nieuwe superdetective gaan werken, moeten goed getraind worden. “Zij moeten de feilbaarheid van de techniek begrijpen”, zegt hij. “Als het systeem zegt dat op een bepaalde plek criminelen zitten, is dat nog geen feit. Het is een kans.” 

Hij heeft er overigens wel vertrouwen in dat de politie goed nadenkt over de risico's van artificiële intelligentie en algoritmes. Het politielab, een samenwerking tussen de universiteiten van Amsterdam en Utrecht, heeft onderzoekers aan de universiteiten van Leiden en Delft gevraagd te onderzoeken wat de technische, sociale, juridische en ethische impact is van het gebruik van zelflerende systemen in het politiewerk. 

Lees ook: 

De politie  heeft er een superrechercheur bij: de computer

In het nieuwe Politielab wordt de denkkracht van computers ingezet voor beter recherchewerk.

Computersystemen bepalen steeds vaker wat we zien, maar hoe leer je een computer wat ethiek is?
Computersystemen kunnen even bevooroordeeld zijn als mensen. 
Hoe vertel je een computer wat ethiek is? ‘Ethiek is niet te vertalen in enen en nullen.’

Deel dit artikel

Een algoritme kan je eigen vooroordelen verkleinen, maar ook vergroten. Daar moet iedereen zich bewust van zijn.

Ibo van de Poel