Deepfake
Kamerleden spraken bedrieger in plaats van medewerker Navalny. Hoe werkt de deepfake-techniek die hierachter steekt?
De vaste commissie voor Buitenlandse Zaken van de Tweede Kamer heeft deze week een digitaal gesprek gevoerd met iemand die zich voordeed als Leonid Volkov, een directe medewerker van de Russische oppositieleider Aleksej Navalny. Dat bevestigt een woordvoerder van de Tweede Kamer na een bericht in de Volkskrant.
De persoon met wie de Kamerleden spraken, was een zogenoemde deepfake-imitatie. Dat is een techniek waarmee zeer realistische nepvideo’s gemaakt kunnen worden door het gezicht van iemand anders in bewegende beelden te monteren.
De commissie laat weten bevestiging te hebben gekregen dat zij niet met Volkov zelf heeft gesproken maar met een bedrieger. Zij is “verontwaardigd over deze gang van zaken” en heeft aangeboden om alsnog met Volkov in gesprek te gaan.
Ook andere parlementen hebben met deze praktijken te maken gehad. “De Tweede Kamer gaat na hoe dergelijke incidenten in de toekomst kunnen worden voorkomen.”
Nu kan iedereen nepfoto’s en -video’s maken, en dat is best griezelig
Hoe griezelig is deepfake? Theo Gevers, hoogleraar Computer Vison aan de Universiteit van Amsterdam, bevestigt dat de techniek een bedreiging is. “Als je echt niet meer van nep kunt onderscheiden, kun je niet meer uitgaan van de waarheid. Dan heb je wel een probleem.” De beelden zijn zo geraffineerd dat ze met het blote oog niet meer van echt zijn te onderscheiden. Het gaat verder dan een persiflage of verdraaide waarheid en is echt anders dan de technieken die we al kennen voor beeldbewerking; Photoshop verbleekt erbij. En de techniek erachter verbetert snel.
“Het afgelopen jaar heeft de deepfaketechniek een enorme vlucht genomen”, zegt Gevers. Hij doet onderzoek naar de bestaande methodes om deepfakes te produceren en ontwikkelt met zijn team software om deze deepfakes te ontmaskeren. Deepfake wordt gemaakt met kunstmatige intelligentie, ook wel AI genoemd, en gaat uit van meerdere lagen in een beeld. Computers analyseren die lagen en leren zo hoe een gezicht eruitziet vanuit meerdere hoeken en hoe bewegingen worden gemaakt. De getrainde computer bedenkt vervolgens zelf een heel nieuw beeld.
Er zijn ongeveer twintig verschillende methodes voor het maken van deepfake-video’s, maar daar komen snel meer bij. Grofweg zijn ze onder te verdelen in twee soorten: een waarbij een gezicht over dat van iemand anders wordt geplakt, en de methode waarbij een bestaand filmpje van iemand wordt gemanipuleerd. De techniek achter de eerste methode, bekend als faceswap, is de afgelopen maanden snel verbeterd. Je ziet de techniek ook terug in apps waarmee je jezelf oud kunt maken.
Nienke Schipper
Lees ook:
Poetin uit stoere taal in zijn jaarrede, maar rept met geen woord over Navalny
Vladimir Poetin hield het woensdag in zijn jaarlijkse state-of-the-nation-toespraak bij dreigende woorden. Die waren bedoeld voor zijn binnenlandse én buitenlandse vijanden.
Navalny stopt na ruim drie weken met hongerstaking
De Russische oppositieleider Aleksej Navalny stopt met zijn hongerstaking. Hij begon daar ruim drie weken geleden mee omdat hij vanwege gezondheidsproblemen in de gevangenis bezoek eiste van een arts naar eigen keuze.