Deepfakes vormen één van de minder prettige producten van de recente ontwikkelingen op het gebied van kunstmatige intelligentie. Fake media gegenereerd door machine-learning-algoritmes hebben in de afgelopen jaren veel terrein gewonnen. Alyssa Millers lezing op de RSA Conference 2020, Losing our reality genaamd, biedt inzichten in waarom het tijd wordt om deepfakes als dreiging te beschouwen (nog afgezien van in verkiezingsjaren) en wat uw bedrijf kan doen om de impact ervan te beperken als u op zo’n manier wordt aangevallen.
Hoe deepfakes gemaakt worden
De meest voorkomende aanpak voor het creëren van een deepfake is met gebruik van een systeem met de naam GAN, oftewel een generative adversarial network. GANs bestaan uit twee diepe neurale netwerken die met elkaar concurreren. Ter voorbereiding worden beide netwerken met echte afbeeldingen getraind. Vervolgens begint het adversarial gedeelte, waarbij één netwerk afbeeldingen genereert (vandaar de naam generative) en het andere netwerk probeert dan te bepalen of die afbeelding echt of nep is (dit laatste netwerk wordt discriminerend) genoemd.
Daarna leert het generatieve netwerk van die resultaten. Tegelijkertijd leert het discriminerende netwerk hoe het zichzelf kan verbeteren. Bij elke cyclus worden beide netwerken beter.
Als we dat proces vooruit spoelen, dus na bijvoorbeeld een miljoen trainingscycli, zien we het volgende: het neurale netwerk heeft geleerd hoe het nepafbeeldingen kan genereren die een net zo geavanceerd neuraal netwerk niet van echte afbeeldingen kan onderscheiden.
Deze methode is in feite erg handig voor tal van applicaties; afhankelijk van de voorbereidende gegevens leert het generatieve netwerk om bepaalde soorten afbeeldingen te genereren.
Voor deepfakes is het algoritme natuurlijk op echte foto’s van echte mensen getraind, wat resulteert in een netwerk dat een oneindig aantal overtuigende (maar neppe) foto’s van de persoon kan genereren, klaar om in een video te worden geïntegreerd. Met vergelijkbare methodes kunnen er neppe audio-bestanden worden gegenereerd en scammers maken waarschijnlijk ook al gebruik van deepfake-audio.
Hoe overtuigend deepfakes zijn geworden
Vroege deepfake-video’s zagen er belachelijk uit, maar de technologie heeft zich inmiddels voldoende ontwikkeld om angstaanjagend overtuigend media te kunnen creëren. Een van de meest opvallende voorbeelden van angstaanjagend echt lijkende deepfakes uit 2018 was de neppe Barack Obama die het daarin over, jawel, deepfakes had (plus zo nu en dan een belediging richting de huidige president van de V.S.). Halverwege 2019 zagen we een korte video van een neppe Mark Zuckerberg die verdacht eerlijk was over de huidige staat van privacy.
Om te begrijpen hoe goed de technologie is geworden, kunt u de onderstaande video bekijken. Impressionist Jim Meskimen creëerde deze video in samenwerking met deepfake-artiest Sham00k. Jim Meskimen was hierbij verantwoordelijk voor de stemmen, en Sham00k paste de gezichten van zo’n 20 beroemdheden in de video toe met gebruik van deepfake-software. Het resultaat is fascinerend.
Zoals Sham00k in de beschrijving van zijn achter-de-schermen-video zegt: “de volledige video koste iets meer dan 250 uur werk, 1200 uur aan beeldmateriaal, 300.000 afbeeldingen en ongeveer 1 terabyte aan gegevens om te creëren.” Dat gezegd hebbende: het maken van zo’n video is absoluut niet niks. Maar zulke overtuigende nepinformatie kan potentieel enorme effecten op markten hebben, of verkiezingen, waardoor het proces juist schrikwekkend eenvoudig en goedkoop lijkt.
Dat was ook de reden dat ongeveer op hetzelfde moment als dat de bovenstaande video werd gepubliceerd California besloot om politieke deepfake-video’s tijdens het verkiezingsseizoen te verbieden. Maar het probleem blijft bestaan. Om te beginnen zijn deepfake-video’s in principe een vorm van expressie, net als bijvoorbeeld politieke satire. California’s verbod vormt niet bepaald een bescherming van de vrijheid van meningsuiting.
Het tweede probleem is zowel technisch als praktisch: hoe kunt u een deepfake-video van een echte video onderscheiden?
Hoe detecteert u deepfakes
Machine learning is wereldwijd erg populair onder wetenschappers, en het deepfake-probleem lijkt interessant en uitdagend genoeg om veel van die wetenschappers te verleiden ermee aan de slag te gaan. Daarom zijn er ook tal van onderzoeksprojecten die focussen op hoe beeldanalyse gebruikt kan worden om deepfakes te detecteren.
Een paper dat in juni 2018 werd gepubliceerd beschrijft bijvoorbeeld hoe het analyseren van het knipperen met de ogen kan helpen bij het detecteren van deepfake-video’s. Het idee is dat er normaal gesproken niet genoeg foto’s van een persoon beschikbaar zijn waar deze met zijn of haar ogen knippert, dus neurale netwerken kunnen daar misschien niet genoeg op trainen. Mensen in deepfakes ten tijde van de publicatie van het paper knipperden veel te weinig met hun ogen om het geloofwaardig te maken, en hoewel mensen dat moeilijk opmerkten, hielp een computeranalyse hier wel bij.
Twee papers die in november 2018 werden ingediend suggereerden om gezichtsvervormende voorwerpen en inconsistente houdingen van hoofden te letten. Een ander paper uit 2019 beschreef een geavanceerde techniek die gezichtsuitdrukkingen en bewegingen analyseert die kenmerkend zijn voor het spreekpatroon van een individu.
Maar zoals Miller al opmerkte werken die methodes op de lange termijn waarschijnlijk niet. Dit soort onderzoeken verstrekt in feite vooral feedback voor de makers van deepfakes, en helpt ze zo om hun discriminerende neurale netwerken te verbeteren, wat weer leidt tot betere training van generatieve netwerken en dus betere deepfakes.
Het gebruik van bedrijfscommunicatie om deepfake-dreigingen te beperken
Met de bovenstaande problemen lijkt het erop dat een puur technologische oplossing waarschijnlijk niet erg effectief gaat zijn. Maar er bestaan andere opties. U kunt de dreiging vooral beperken middels effectieve communicatie. U moet aan uw bedrijf gerelateerde informatie in de gaten houden en klaar zijn om het verhaal te sturen als u te maken krijgt met de verspreiding van foutieve informatie.
De volgende suggesties vormen een samenvatting van de suggesties van Alyssa Miller voor het voorbereiden van uw bedrijf op de deepfake-dreiging. En dezelfde methodes kunnen trouwens worden gebruikt bij het aanpakken van andere PR-misstanden.
- Minimaliseer de kanalen voor bedrijfscommunicatie;
- Zorg voor consistente verspreiding van informatie;
- Ontwikkel een noodplan voor het geval er foutieve informatie wordt verspreid (behandel deze voorvallen als veiligheidsincidenten);
- Organiseer een gecentraliseerde functie voor controle en rapportage;
- Moedig de verantwoordelijk wetgeving en de privésector aan tot controle van de feiten;
- Hou de ontwikkeling van detectie- en preventiemaatregelen van deepfakes in de gaten.