Technologie-expert Duursma: 'Gebruik je gezond verstand bij beoordelen deepfake-video'

Sedar Soares in de deepfake-video
Sedar Soares in de deepfake-video © Politie
De politie bracht zondag een zogeheten deepfake-video naar buiten, waarop de in 2003 doodgeschoten Sedar Soares uit Rotterdam 'zelf' de dader en getuigen vraagt om zich te melden. Gevaarlijk? De Groningse technologie-expert Jarno Duursma vindt het een mooi voorbeeld van nieuwe technologie.
'Ik denk dat het goed is. Je zoekt naar een nieuw middel, een nieuwe technologie wat gebruikt kan worden om zo'n misdaadzaak open te breken. Je moet voorzichtig zijn met manipulatieve technologieën, maar in dit specifieke geval is het prima', zegt Duursma op NPO Radio 1.
Wat is een deepfake?
In deepfake-video's manipuleren algoritmes beeld en geluid. Zo is het mogelijk dat bijvoorbeeld het gezicht van een acteur wordt verwisseld met het gezicht van een wereldleider, bekendheid of - zoals in dit geval - een slachtoffer van een misdrijf. Ook de stem van de persoon in de deepfake-video kan worden geïmiteerd of door een slim algoritme gemanipuleerd. De video van Sedar Soares is hier te vinden.

Steeds minder nep

Volgens Duursma wordt kunstmatige intelligente software steeds slimmer. 'Dus er kan steeds meer. Dit soort software kan op basis van voorbeelden steeds beter leren. Dit soort beelden kan gemaakt worden op basis van video- en fotomateriaal van hoe deze jongeman er uit heeft gezien. Dat wordt door slimme software over een bestaande acteur geplakt.'
Een goéde deepfake van iemand anders maken, is best wel pittig
Jarno Duursma, technologie-expert

'Goede deepfake kost tijd en geld'

'Het is relatief makkelijk om van jezelf een deepfake-video te maken via allerlei geinige appjes. Daardoor kun je jezelf in de hoofdrol van de Titanic of een Rambo-film laten spelen. Maar om een goéde deepfake van iemand anders te maken, waarbij ook nog de stem geloofwaardig nagebootst wordt, is best wel pittig. Daar heb je tijd en geld voor nodig. Het ligt wel binnen handbereik dat het makkelijker wordt de komende jaren en dan zit je op de scheidslijn tussen wat is echt en wat is nep?', vertelt Duursma.

Ethische scheidslijn

Die ethische scheidslijn is voer voor discussie, want mogen we zomaar mensen - die daar geen toestemming voor geven - digitaal op beeld tot leven wekken? 'Of mogen we de stem van een filmmaker weer gebruiken en klonen en die dingen laten zeggen die hij of zij nooit heeft gezegd?', vraagt de technologie-expert zich af. 'Je kunt dus voorstellen dat je in de toekomst vragen krijgt of je dit in je testament moet laten vastleggen als je niet wil worden gedeepfaked, om voor bepaalde doeleinden gebruikt te worden.'

'Vertrouw op gezond verstand'

Duursma benadrukt dat je bij het zien van een goede deepfake niet op je ogen en oren moet vertrouwen, zo ver is de technologie al. 'Je moet vertrouwen op gezond verstand. Ik heb zelf ook een deepfake avatar van mijzelf gemaakt en een voicekloon. Als ik die wel eens rondstuur, ziet het gros van de mensen echt niet dat het deepfake is. Als je tijd, geld én moeite erin steekt, kun je niet meer vertrouwen op je gewone ogen en oren', waarschuwt hij.
De deepfake video die Jarno Duursma van zich liet maken: