Wat zijn deepfakes en nepvideo's?
Definitie en uitleg van deepfakes
Deepfakes zijn nepvideo's of valse audiofragmenten die worden gemaakt met behulp van kunstmatige intelligentie en synthetische media. Deze technologieën maken gebruik van geavanceerde algoritmen om bestaande beelden en geluiden te manipuleren en te combineren, waardoor het lijkt alsof iemand iets zegt of doet wat in werkelijkheid nooit heeft plaatsgevonden. De term "deepfake" is een combinatie van de Engelse woorden "deep" en "fake", wat verwijst naar de diepe lagen van kunstmatige intelligentie die worden gebruikt om deze nepvideo's te maken. Door de snelle ontwikkeling van deze technologieën worden deepfakes steeds realistischer en moeilijker te onderscheiden van echte beelden.
De opkomst van deepfake en kunstmatige intelligentie
Het woord deepfake is een samenvoeging van de term 'deep learning' en 'fake', wat staat voor nep. Deep learning is een geavanceerde methode uit de wereld van de kunstmatige intelligentie (AI), waarbij software en meerdere lagen algoritmen voor zelflerende systemen (machine learning) worden gebruikt om steeds hoogwaardigere beelden uit ruw basismateriaal te verkrijgen. Het kan leren van ongestructureerde gegevens, zoals het menselijke gezicht. Zo kan AI data verzamelen op basis van de bewegingen van je lichaam.
Die gegevens worden vervolgens verwerkt om een deepfake-video te maken met behulp van een GAN (Generative Adversarial Network). Dit is een ander systeem dat gebruik maakt van machine learning. Een GAN laat twee neurale netwerken tegen elkaar strijden om de kenmerken te leren van een trainingsset (foto's van gezichten, bijvoorbeeld), op basis waarvan nieuwe data worden gecreëerd met dezelfde kenmerken (nieuwe 'foto's').
Omdat dit netwerk de gemaakte beelden blijft vergelijken met de trainingsset, worden de nepbeelden steeds realistischer. Zo wordt deepfake een nog grotere dreiging. Maar GAN's kunnen naast foto's en video's ook ander nepmateriaal maken. Zo kunnen met dezelfde machine learning- en synthesetechnologie voor deepfake ook nepstemmen worden gecreëerd.
Voorbeelden van deepfake
Er zijn een aantal bekende voorbeelden van deepfake-video's. Acteur Jordan Peele heeft bijvoorbeeld een clip gemaakt waarvoor hij echt materiaal van Barack Obama samenvoegde met zijn eigen Obama-imitatie, om te waarschuwen tegen deepfake-video's. Vervolgens kun je zien hoe de twee helften van de samengevoegde video eruitzien wanneer ze worden gescheiden. Zijn advies? Wees kritisch over wat je ziet.
In een bekende video op Instagram lijkt Facebook-CEO Mark Zuckerberg te vertellen dat Facebook dankzij gestolen gebruikersgegevens 'de controle heeft over de toekomst'. De originele beelden waren afkomstig van een toespraak die hij gaf over Russische inmenging in de Amerikaanse verkiezingen. Er waren slechts 21 seconden van die toespraak nodig om de nieuwe clip te genereren. Maar omdat de imitatie van de stem niet zo goed was als in Jordan Peele's video, was het duidelijk dat de beelden nep waren.
Toch kunnen ook minder goed gemaakte fake video's van grote invloed zijn. Zo verzamelde een clip van een 'dronken' Nancy Pelosi miljoenen views op YouTube, terwijl het eigenlijk gewoon een vertraagd afgespeelde video was, zodat ze leek te praten alsof ze dronken was. En veel vrouwelijke beroemdheden zagen tot hun verbazing dat ze een hoofdrol hadden in wraakpornobeelden -- nadat hun gezichten waren verwerkt in seksfilms en -foto's.
De deepfake-dreiging van fraude, voice cloning en chantage
Deepfake-video's worden gebruikt voor politieke doeleinden en voor persoonlijke wraak. Maar ze worden ook steeds meer toegepast bij serieuze pogingen tot fraude en chantage.
De directeur van een Engels energiebedrijf werd €220.000 afhandig gemaakt doordat een deepfake-stemimitatie en voice cloning van het hoofd van het moederbedrijf hem vroeg een noodoverboeking te maken. De nepstem was zo overtuigend dat het niet in de directeur opkwam om de opdracht te verifiëren -- het geld werd niet overgemaakt naar het hoofdkantoor maar naar een externe bankrekening. Hij werd pas achterdochtig toen zijn 'baas' opnieuw verzocht om een overboeking. Maar tegen de tijd dat hij de alarmbellen hoorde rinkelen, was het te laat; het al overgemaakte geld was niet meer terug te krijgen.
In Frankrijk werd bij een recente poging tot fraude geen deepfake-technologie gebruikt, maar werd minister van Buitenlandse Zaken Jean-Yves le Drian geïmiteerd, te midden van een exacte kopie van zijn kantoor met meubels, om zo senior managers miljoenen euro's lichter te maken. De fraudeur Gilbert Chikli zou zichzelf hebben uitgedost als de minister om rijke individuen en directeuren te vragen om losgeld voor de bevrijding van Franse gegijzelden in Syrië. Hij staat momenteel hiervoor terecht.
Het is ook denkbaar dat deepfake-criminelen directeuren van bedrijven chanteren door te dreigen met openbaarmaking van een beschadigende deepfake-video, tenzij ze geld ontvangen. Of ze kunnen een netwerk binnendringen door een nepvideo-oproep van het hoofd IT te maken waarin medewerkers wordt gevraagd naar hun wachtwoorden en andere informatie. Hiermee zouden hackers toegang krijgen tot allerlei vertrouwelijke gegevens.
Er is al gebruik gemaakt van deepfake-pornoclips om vrouwelijke journalisten te chanteren, zoals de Indiase Rana Ayyub, die machtsmisbruik aan de kaak stelt. Naarmate de technologie goedkoper wordt, kunnen we meer pogingen tot fraude en chantage met deepfake verwachten.
Risico's en gevolgen van deepfakes
Beeldmanipulatie en nepnieuws
Deepfakes kunnen worden ingezet om nepnieuws te verspreiden en beeldmanipulatie toe te passen. Dit kan leiden tot verwarring en onrust onder het publiek, omdat mensen niet meer zeker weten of wat ze zien en horen echt is. Politieke actoren en commerciële bedrijven kunnen deepfakes gebruiken om hun agenda te pushen, wat de geloofwaardigheid van informatiebronnen ondermijnt. De ontwikkeling van deepfakes speelt een belangrijke rol in de verspreiding van nepnieuws en beeldmanipulatie, wat de noodzaak benadrukt voor betere detectiemethoden en bewustwording.
Reputatieschade en chantage
Een ander groot risico van deepfakes is de mogelijkheid om reputatieschade toe te brengen aan individuen of organisaties. Door nepvideo's te maken die lijken op echte beelden, kunnen kwaadwillenden iemand in een kwaad daglicht stellen of zelfs chantage plegen. Denk bijvoorbeeld aan een deepfake-video waarin een CEO van een bedrijf iets compromitterends zegt of doet. Dit kan niet alleen de reputatie van de persoon in kwestie schaden, maar ook ernstige gevolgen hebben voor het bedrijf en zijn stakeholders.
Onrust en polarisatie
Deepfakes kunnen ook worden gebruikt om onrust en polarisatie te creëren binnen de samenleving. Door nepvideo's te maken die lijken op echte beelden, kunnen kwaadwillenden mensen tegen elkaar opzetten of politieke spanningen verhogen. Dit kan leiden tot ernstige maatschappelijke gevolgen, zoals protesten, geweld en een verslechtering van de politieke stabiliteit. Het is daarom cruciaal om bewust te zijn van de potentie van deepfakes om onrust te zaaien en om maatregelen te nemen om hun impact te minimaliseren.
Hoe kunnen we ons beschermen tegen deepfake?
Er bestaat al wetgeving tegen de dreiging van deepfake-video's. Zo zijn in de staat Californië vorig jaar twee wetten aangenomen die aspecten van deepfake illegaal maken. Wet AB-602 verbiedt de synthese van beeldmateriaal van mensen zonder hun toestemming voor het produceren van pornografie, terwijl wet AB-730 het manipuleren verbiedt van beeldmateriaal van politieke kandidaten tijdens een periode van 60 dagen voorafgaand aan een verkiezing.
Naast de wetgeving in Californië, speelt ook de Algemene Verordening Gegevensbescherming (AVG) een belangrijke rol in de regulering van deepfakes. De AVG stelt verschillende obstakels en voorwaarden voor het maken en delen van deepfakes, vooral als het gaat om het waarborgen van privacy en toestemming van betrokkenen. Het is belangrijk om te voldoen aan deze algemene verordening om juridische complicaties te vermijden.
Hoe kan je deepfake herkennen?
Maar is dat genoeg? Gelukkig bieden cyberbeveiligingsbedrijven steeds meer en steeds betere algoritmen om deepfake te herkennen. Hiermee worden videobeelden geanalyseerd en kleine verstoringen geïdentificeerd die worden gegenereerd tijdens het deepfake-proces. Zo maken de huidige deepfake-synthesizers bijvoorbeeld gebruik van een tweedimensionaal gezicht, dat vervolgens wordt vervormd om te passen in het driedimensionale perspectief van een video. Als je kijkt naar de richting waarnaar de neus wijst, kun je zien dat de clip nep is.
Deepfake-video's zijn nu nog als zodanig door ons te herkennen. Kijk uit naar de volgende kenmerken van een deepfake-video:
-
schokkerige bewegingen;
-
veranderingen in belichting in opeenvolgende frames;
-
veranderingen in huidskleur;
-
vreemd knipperen van de ogen, of helemaal geen knipperen;
-
slecht gesynchroniseerde lippen en spraak;
-
digitale artefacten in het beeld.
Maar naarmate de deepfakes beter worden, zul je minder aan je ogen hebben en meer aan een goed cyberbeveiligingsprogramma.
State-of-the-art anti-fake-technologie
Er zijn verschillende technologieën in opkomst waarmee videomakers hun clips en nieuwe digitale content kunnen waarmerken. Zo kun je een versleuteld algoritme gebruiken om op vaste momenten hashes toe te voegen aan een video. Als er met de video wordt gerommeld, veranderen de hashes. AI en blockchain bieden de mogelijkheid om een manipulatiebestendige digitale vingerafdruk aan video's toe te voegen. Dit is vergelijkbaar met het watermerk van een document. Het probleem bij video is dat de hashes bestendig moeten zijn tegen compressie van de video voor gebruik met andere codecs.
Een andere manier om pogingen tot deepfake de kop in te drukken, is om een programma te gebruiken dat speciaal ontworpen 'digitale artefacten' in video's verwerkt om het door gezichtsherkenningssoftware gebruikte pixelpatroon te verbergen. Deze zorgen ervoor dat deepfake-algoritmen vertragen en leiden tot kwalitatief slechte resultaten, zodat deepfakes eenvoudiger te herkennen zijn.
Goede beveiligingsprocedures vormen de beste bescherming
Maar naast technologie zijn er nog meer manieren om je te beschermen tegen deepfake-video's. Goede fundamentele beveiligingsprocedures zijn opvallend effectief in de strijd tegen deepfake, die dingen kunnen laten lijken alsof ze echt zijn.
Zo zouden ingebouwde automatische controles in procedures voor het vrijgeven van middelen veel deepfake- en soortgelijke fraudes hebben voorkomen. Verder kun je:
-
zorgen dat werknemers en familieleden bekend zijn met de uitdagingen van deepfake en weten hoe het werkt;
-
jezelf en anderen aanleren hoe je een deepfake kunt herkennen;
-
zorgen dat je mediavaardig bent en kwalitatief goede nieuwsbronnen gebruikt;
-
goede basisregels hebt: 'vertrouw maar controleer'. Een sceptische houding ten aanzien van voicemail en video's is geen garantie om nooit bedrogen te worden, maar kan helpen veel valkuilen te omzeilen.
Onthoud dat wanneer hackers deepfake gaan gebruiken om binnen te dringen in privé- en zakelijke netwerken, fundamentele beste praktijken van cyberbeveiliging een kritieke rol zullen spelen bij het beperken van de risico's.
-
Maak regelmatig backups van je gegevens, zodat je beschermd bent tegen ransomware en beschadigde data kunt herstellen.
-
Gebruik verschillende, sterke wachtwoorden voor verschillende accounts. Zo zorg je dat wanneer criminelen één netwerk of dienst binnendringen, de andere nog veilig zijn. Als iemand je Facebook-account binnendringt, wil je niet dat die persoon ook toegang krijgt tot je andere accounts.
-
Gebruik een goed beveiligingspakket zoals Kaspersky's Premium om je privénetwerk, laptop en smartphone te beschermen tegen digitale dreigingen. Dit pakket biedt anti-virussoftware, een VPN die ervoor zorgt dat je wifi-verbinding niet wordt gehackt en beveiliging voor je webcams.
Hoe gaat het verder met deepfake en synthetische media?
Deepfake blijft in ontwikkeling. Twee jaar geleden was het nog heel eenvoudig om deepfake-video's te herkennen; dankzij de schokkerige bewegingen en omdat de neppersoon nooit met de ogen knipperde, maar nu kunnen ze echt lijken. Maar de fake video's blijven in ontwikkeling.
Er zijn momenteel naar schatting meer dan 15.000 deepfake-video's. Sommige zijn gewoon voor de lol gemaakt, terwijl met andere wordt geprobeerd je mening te beïnvloeden. Maar omdat een deepfake-video tegenwoordig in een dag of twee gemaakt is, kan dat aantal wel eens heel snel toenemen.
Gerelateerde links
- Hoe herken je Nepnieuws
- Beroemde sterren gehackt en wat dat voor jou betekent
- Webcamhacks: Word je bespioneerd door je webcam?
Aanbevolen producten: