Kunstmatige intelligentie maakt het steeds makkelijker om video’s en foto’s te manipuleren, waardoor je niet meer weet of ze echt zijn of niet. Microsoft lanceert een nieuwe toepassing om deze ‘deepfakes’ te onderscheppen: Video Authenticator.

Iedereen kent die bewerkte filmpjes wel waarin bekende mensen opeens heel andere dingen zeggen dan ze oorspronkelijk deden. Je ziet ze voorbijkomen op sociale media en vaak is het grappig bedoeld. Maar in de politieke arena – zoals bij de aanloop naar de Amerikaanse presidentsverkiezingen – zijn deepfakes inmiddels een serieus probleem. De technieken om video’s en foto’s - en daarmee het publiek - te manipuleren worden met behulp van AI steeds geavanceerder. En het wordt daardoor voor mensen steeds lastiger om te bepalen of ze nu naar origineel beeldmateriaal kijken of naar een bewerkte versie daarvan.

Zie bijvoorbeeld dit gemanipuleerde filmpje waarin president Richard Nixon vertelt dat de maanlanding van 1969 is mislukt en dat astronauten Armstrong en Aldrin zijn verongelukt. Hier ging het om een experiment van MIT om te laten zien hoe makkelijk het inmiddels is om de geschiedenis te vervalsen.

Nixon

Beelden gaan viral
Politieke kopstukken zeggen opeens het tegenovergestelde of juist nét iets anders dan ze in het echt deden. Of iemand staat te lachen op een foto van een bijeenkomst terwijl die persoon in werkelijkheid juist boos was. Of er misschien helemaal niet was! Via sociale media als Facebook, Instagram en YouTube is het reuze makkelijk om dit soort beelden te verspreiden. En achterhalen wat de bron is van een video of foto en deze laten verwijderen als ze ‘fake’ blijken te zijn, heeft weinig zin meer als de hele wereld ze inmiddels gedeeld heeft.

Vertrouwensscore
Microsoft introduceert nu een nieuwe toepassing die dit soort deepfakes kan herkennen: Video Authenticator. Deze tool analyseert video’s en foto’s en geeft vervolgens een vertrouwensscore voor de waarschijnlijkheid dat het beeld is gemanipuleerd. Voor elke frame waaruit het filmpje bestaat, zie je direct het 'waarschijnlijkheidspercentage' verschijnen. De tool let daarbij bijvoorbeeld op het vervagen van de grenzen rond de ogen en de mond op een niveau waarop het blote oog dat nooit zou kunnen waarnemen. Ook herkent het afwijkingen in het kleurenpalet en de grijswaarden in het beeld.

ezgif.com resize

Achter de feiten aanlopen
In zijn blog zegt Microsoft dat de mogelijkheden van kunstmatige intelligentie op dit gebied zo snel gaan dat detectiesoftware altijd achter de feiten zal aanlopen. Het bedrijf hoopt dat dit nieuwe programma in ieder geval tot aan de Amerikaanse presidentsverkiezingen eraan kan bijdragen dat het politieke debat iets eerlijker verloopt. Video Authenticator is ontwikkeld in samenwerking met de AI Foundation onder de supervisie van media als de BBC en The New York Times. Het programma is in eerste instantie alleen beschikbaar voor nieuwsorganisaties en politieke campagnebureaus.