Foto’s van Mark Rutte en Hugo de Jonge bewerkt met deepfake-techniek. 
 Beeld Fadi Nadrous
Foto’s van Mark Rutte en Hugo de Jonge bewerkt met deepfake-techniek.Beeld Fadi Nadrous

Nepvideo's

Een deepfake Rutte is straks niet meer van de echte te onderscheiden. Moeten we dat willen?

Deepfake-technologie is handig voor Hollywood of de medische sector. Maar het kan ook dienen om onze samenleving te ontwrichten. Een recent rapport onderzoekt de gevaren en mogelijke oplossingen.

Rufus Kain

Tranen van het lachen rolden rond de feestdagen over emoji-gezichten in Nederlandse appgroepjes. Veel vriendenclubjes en families deelden de muziekvideo waarin Mark Rutte en Hugo de Jonge White Christmas zongen samen met Jaap van Dissel en Diederik Gommers. Als een ouderwets barbershop-kwartet stonden ze in rode smokings voor een superkerstig decor. Alleen: zij waren het niet écht. Het was een deepfake.

Deepfakes zijn plaatjes, filmpjes of geluiden die met kunstmatige intelligentie (AI) en andere software gemanipuleerd zijn om net echt te lijken. Ferdinand Grapperhaus die baalt nadat hij het WK darts verliest, Barack Obama die een toespraak eindigt met ‘Stay woke, bitches’, klimaatactiviste Greta Thunberg die dansinstructies geeft voor een apocalyptische macarena: het zijn slechts een paar van de vele populaire deepfakes op YouTube.

Waren alle voorbeelden maar zo onschuldig. Een recent rapport van Tilburg University constateert dat meer dan 95 procent van alle deepfakes pornografisch is, en vaak gemaakt zonder toestemming van de mensen die worden afgebeeld. Vooral vrouwen en meisjes zijn slachtoffer van dit soort nep-porno, met schaamte, nachtmerries en in een enkel geval zelfs suïcide tot gevolg.

Feit van fictie scheiden

Deepfakes kunnen ook dienen om fraude te plegen – een appje met de tekst ‘Mam m’n telefoon is gestolen, wil je geld overmaken?’ maakt minder indruk dan videobellen met een replica van je kind. Of je kunt haatzaaien en verkiezingen beïnvloeden met deepfake-nieuws. Over zes jaar is ruim 90 procent van alles wat je digitaal aantreft gemanipuleerd, voorspellen experts. Als daar veel deepfakes tussen zitten, wordt het lastig voor rechters, journalisten en burgers om feit van fictie te scheiden.

“Wat mij heel erg is opgevallen, is hoe realistisch sommige deepfakes zijn”, zegt Tilburg University-docent Bart van der Sloot. Hij is een van de onderzoekers achter het rapport dat is geschreven voor het ministerie van justitie. “Zowel qua stem als videobeeld kun je iemand iets laten doen of zeggen wat niet van echt is te onderscheiden. Je kunt niet met het blote oog zien dat het nep is, en zelfs bij de beste detectiesoftware glipt ruim een derde van de deepfakes door het net.”

De kerstvideo van Rutte en kompanen ziet er nog vrij duidelijk bewerkt uit. In Hollywood zijn ze al een stuk verder. Zo werd Robert De Niro decennia jonger gemaakt voor de film The Irishman. Hetzelfde lukte nog overtuigender met Arnold Schwarzenegger in het zoveelste vervolg op The Terminator.

“De experts die wij interviewden verwachten dat de technologie die de filmindustrie nu gebruikt binnen twee à drie jaar ook op de consumentenmarkt verschijnt. Dat is leuk voor satire, maar je kunt ook zeggen dat dat voordeel minimaal is tegenover alle nadelen. Het is te overwegen om daarom restricties op deepfakes voor de consumentenmarkt toe te passen”, aldus Van der Sloot.

Misschien kan het trouwens nog wel sneller dan twee jaar: een verveelde Amsterdamse filmmaker maakte vorig jaar al een fraaie fake-versie van filmcoryfee Morgan Freeman.

Verbieden dan maar? Niet zo snel

Het Tilburgse rapport roept de vraag op of deepfakes niet helemáál verboden kunnen worden. Volgens de Europese privacywet mag je afbeeldingen en andere gegevens van mensen niet zomaar uit hun context halen. Zeker niet om zonder toestemming een onjuiste voorstelling van zaken te geven.

Maar een verbod is wel controversieel, vertelt Van der Sloot. “Je blokkeert dan ook kansen om het ten goede te gebruiken.” Stel je voor dat je kleding online kunt passen met een deepfake-versie van jezelf. Of dat mensen met de spierziekte ALS door deepfake-technologie met hun eigen stem kunnen blijven spreken. Of dat de politie er criminele netwerken mee kan infiltreren.

“De politie kan met fake-profielen mensenhandelaren opsporen, of infiltreren in kinderpornonetwerken met naaktfoto’s van niet bestaande kinderen. Al is de ethische vraag dan wel: heiligt het doel de middelen? Of moet de politie zelf geen deepfakes verspreiden?”

Reguleren: zowel oplossing als probleem

In plaats van een verbod, focust het rapport op manieren om deepfakes beter te reguleren. Zo is het verspréiden van gevaarlijke deepfakes vaak al strafbaar, maar moet het maken of bezitten ervan dat misschien ook maar worden. Of misschien moeten er regels komen rond niet-bestaande, door kunstmatige intelligentie gemaakte personen (zie de eindeloze stroom nepmensen op een site als thispersondoesnotexist.com).

Van der Sloot: “Als er nepnieuws met een fake-persoon wordt verspreid, is de extra moeilijkheid dat er niemand is om te zeggen ‘Dat heb ik nooit gezegd’. Daarnaast zijn ook overledenen heel slecht juridisch beschermd. Na je overlijden kan jouw beeltenis worden gebruikt om te spreken op je begrafenis of een rondleiding te geven in een museum. Niet iedereen wil dat. Er kan ook fake-porno van worden gemaakt.”

Zo zijn er allerlei punten waarop de wet aangepast of aangescherpt kan worden. Maar regulering lost niet alles op. Het volstaat prima als het gaat om de vraag of een deepfake van Napoleon geschiedenisles moet kunnen geven. Maar hoe handhaaf je de wet als je niet weet of iets nep is?

“Er zijn al voorbeelden van fake-bewijs in rechtszaken. Zo was er een voogdijzaak in Groot-Brittannië waar de moeder een deepfake van de vader indiende waarop hij heel agressief leek te zijn. In een andere zaak dacht men dat een moeder deepfakes had verspreid waar vriendinnen van haar dochter semi-naakt en rokend op te zien waren. Maar vervolgens bleek het onzeker of het een deepfake was.”

Dan heb je nog fake-deepfakes

Het probleem is niet alleen dat veel deepfakes onopgemerkt blijven. Het omgekeerde is ook mogelijk. “Automatische detectiesoftware zoekt naar zogeheten artefacten die duiden op manipulatie. Maar iemand kan ook alleen een artefact maken en dat toevoegen aan echte beelden zodat het systeem denkt dat ze nep zijn. Zo wordt het nog moeilijker om te beoordelen wat waar is en wat niet.”

Uiteindelijk is een van de grootste angsten dat deepfakes worden gebruikt door landen als Rusland om in een ander land verkiezingen te beïnvloeden, of door partijen die haat willen zaaien tegen een bepaalde bevolkingsgroep. Net zoals ‘gewoon’ nepnieuws in 2016 al werd ingezet om Amerikaanse presidentsverkiezingen te manipuleren, en eind 2017 leidde tot genocide in Myanmar.

“Zelfs al zou je deepfake-technologie verbieden”, concludeert Van der Sloot, “onderliggende fenomenen als online vrouwenhaat en fake-nieuws haal je daarmee niet weg.”

Nederlandse deepfakes

Buiten film, online winkels en andere industrieën, zijn de meeste onschuldige deepfakes humor of satire. Zo ook in Nederland. Dit zijn twee Hollandse YouTube-kanalen die je willen laten lachen.

Fake It or Leave It: Dit is het bedrijfje achter de kerstvideo met Rutte, De Jonge, Gommers en Van Dissel. Op YouTube hebben ze nog een paar video’s staan, grotendeels met politici. Zo is er een filmpje waarin Geert Wilders en Thierry Baudet samen dansen, en eentje waarin Rutte samen met Sigrid Kaag een boek leest in het park en zingt dat hij verliefd is.

Diep Nep: Meer video’s vind je op het kanaal van filmmaker Bob de Jong. Zijn deepfakes van Morgan Freeman en Grapperhaus als professioneel darter zijn samen meer dan 350 duizend keer bekeken.

Daarnaast staat op Diep Nep bijvoorbeeld een filmpje van minister De Jonge die niet onverdienstelijk opera zingt tijdens ‘Hugo's fieldlab show’. Of Jesse Klaver die in plaats van Gotye zingt in de clip van het liedje Somebody That I Used To Know. En natuurlijk Maarten van Rossem die losgaat op het nummer I'm Too Sexy.

Het ene voorbeeld is overtuigender dan het andere. Maar deze video’s zijn ook niet gemaakt om mensen te misleiden. Het type deepfakes waar onderzoekers zich zorgen over maken zal moeilijker te herkennen zijn. En die kanalen zullen het woordje ‘nep’ niet in hun naam hebben staan.

Lees ook:

Politica krijgt online een bak haat over zich heen

Kabinet-Rutte IV bestaat voor de helft uit vrouwen, maar online haat maakt het voor hen moeilijk om volwaardig mee te doen aan het publieke debat. In andere landen trokken vrouwelijke politici zich al terug.

Meer over

Wilt u iets delen met Trouw?

Tip hier onze journalisten

Op alle verhalen van Trouw rust uiteraard copyright.
Wil je tekst overnemen of een video(fragment), foto of illustratie gebruiken, mail dan naar copyright@trouw.nl.
© 2022 DPG Media B.V. - alle rechten voorbehouden