In de deepfake video wordt de dertienjarige Sedar Soares, in 2003 vermoord, virtueel tot leven gewekt. Beeld Still uit de video
In de deepfake video wordt de dertienjarige Sedar Soares, in 2003 vermoord, virtueel tot leven gewekt.Beeld Still uit de video

Deepfake

Ethische vragen over deepfake door politie

De politie heeft een deepfake-video online gezet waarin een 13-jarig slachtoffer een oproep doet aan zijn moordenaar en getuigen om zich te melden. Er kwamen al snel tips op binnen. Maar is het ethisch om op deze manier een slachtoffer ‘tot leven wekken’?

Tobiah Palm

Een puberjongen in blauw-wit trainingspak loopt over een donker voetbalveld, een bal onder zijn arm. Met een indringende blik kijkt hij recht de camera in. “Dit is mijn broertje, Sedar Soares,” klinkt de voice-over van Janet Soares. In beeld zwaait Sedar. “Zijn droom: profvoetballer worden,” zegt zijn zus. “Die droom is weg, want Sedar leeft niet meer. Hij was dertien jaar toen hij werd doodgeschoten.”

Terwijl Janet vertelt over het zware gemis, loopt Sedar – in feite een deepfake-reïncarnatie van de jongen – langs familie en vrienden. Zij zijn bijna twintig jaar ouder geworden, terwijl Sedar een jonge jongen is gebleven. Aan het einde van de video vraagt Sedar ‘zelf’ de dader en getuigen om zich te melden.

Niet van echt te onderscheiden

Een deepfake is een met kunstmatige intelligentie gemaakte nepvideo. Op de beelden is Sedar niet van echt te onderscheiden. De video was zondagavond te zien in de documentaire Spreek! Nu! , uitgezonden door omroep WNL.

De video vertelt het verhaal van de moord op Sedar Soares. Hij werd in 2003 hoogstwaarschijnlijk geraakt door een verdwaalde kogel van een vuurgevecht tussen criminelen die elkaar probeerden te beroven.

Bijna twintig jaar later heeft de politie de zaak nog steeds niet opgelost. Daarom roept het coldcaseteam nu, voor het eerst, een slachtoffer ‘tot leven’ om getuigen te vinden. En met succes: maandag meldde de politie dat een tiental tips is binnengekomen naar aanleiding van de video.

Het slachtoffer in de ogen kijken

Dat komt waarschijnlijk door het schokeffect van de deepfake, zegt hoogleraar Theo Gevers, die onderzoek doet naar het gebruik van deepfakes in therapie. In de politievideo kijkt toeschouwer kijkt het slachtoffer recht in de ogen en dat heeft impact.

“Je doet een beroep op de medemenselijkheid van getuigen, en die oproep komt veel harder aan als je het slachtoffer ziet lopen en praten.” Deepfake-technologie kan volgens Gevers een goede toevoeging zijn in toepassingen in politieonderzoek.

Wel had het coldcaseteam beter kunnen wachten tot er juridische kaders zijn voor het gebruik van deepfakes. Dat zegt Bart van der Sloot, universitair hoofddocent recht, technologie en samenleving aan de Universiteit van Tilburg.

Van der Sloot schreef mee aan een adviesrapport over deepfakes voor de overheid. “Die richtlijnen komen er pas na de zomer” zegt hij. Hij vindt dat de politie daarop had moeten wachten omdat zij een voorbeeldfunctie heeft. “Hiermee geeft de organisatie een verkeerd signaal af,” zegt hij. “Nu kan iedereen gaan freewheelen met deze techniek.”

Een woordvoerder van de politie zegt dat het coldcaseteam de deepfake ‘niet zomaar’ heeft ingezet. “We zijn transparant over onze werkwijze en de familie was betrokken bij elke stap. Het is natuurlijk de eerste keer dat we zoiets doen, dus we moeten alert zijn op alles.” Zij verwacht dat er in de toekomst veel meer met zulke technologie gewerkt zal worden.

‘Overspoeld met video's van levende doden’

Ook Van Der Sloot denkt dat de deepfake niet meer weg te denken is uit het medialandschap. Maar dat ziet hij niet per se als iets goeds. Hij waarschuwt voor een post-truth-samenleving, waarin feit en fictie niet meer van elkaar te onderscheiden zijn.

“Wat nu als de politie voor elke cold case een slachtoffer een oproep laat doen,” vraagt hij zich af. “Dan worden we overspoeld met nepvideo’s van levende doden.”

Daarbij betwijfelt hij of getuigen zich zullen melden na het zien van de deepfake. “Je ziet wel vaker dat overheidsinstanties heel enthousiast zijn over nieuwe technieken, maar het werkt niet altijd,” zegt hij.

Lees ook:
‘Met deepfake kunnen kleinkinderen hun opa (weer) zien’
Met deepfake dierbare geliefden weer
tot leven wekken is geen toekomstmuziek. De techniek wordt nu al ingezet bij onder meer rouwverwerking.

Lees ook:
‘Een deepfake Rutte is straks niet meer van de echte te onderscheiden. Moeten we dat willen?’
Deepfake-technologie is handig voor Hollywood of de medische sector. Maar het kan ook dienen om onze samenleving
te ontwrichten. Een recent rapport onderzoekt de gevaren en mogelijke oplossingen.

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2023 DPG Media B.V. - alle rechten voorbehouden