Overslaan naar hoofdinhoud

Deepfake en nepvideo's - Hoe kun jij jezelf beschermen?

Een scherm met twee afbeeldingen van een gezicht laat zien hoe gek deepfakes zijn

Om te leren hoe u kunt voorkomen dat u slachtoffer wordt van valse informatie, moet u eerst begrijpen wat deepfakes zijn. Deepfakes zijn afbeeldingen of video's die door kunstmatige intelligentie (AI) worden gegenereerd om zeer realistische content te produceren.

Hoe worden deepfakes gemaakt?

Deep learning is een geavanceerde methode voor kunstmatige intelligentie (AI), waarbij gebruik wordt gemaakt van meerdere lagen algoritmen voor machinaal leren om steeds hoogwaardigere kenmerken uit ruwe invoer te halen. Het kan leren van ongestructureerde gegevens, zoals het menselijke gezicht.

Deze gegevens worden verwerkt om een Deepfake-video te maken via een GAN (Generative Adversarial Network): een gespecialiseerd systeem voor machinaal leren. Een GAN laat twee neurale netwerken tegen elkaar strijden om de kenmerken te leren van een trainingsset (foto's van gezichten, bijvoorbeeld), op basis waarvan nieuwe data worden gecreëerd met dezelfde kenmerken (nieuwe ‘foto’s’).

Wanneer het netwerk de gemaakte afbeeldingen vergelijkt met de trainingsset, worden de nepafbeeldingen, -video's en -audio steeds overtuigender. Hierdoor wordt Deepfake een steeds grotere bedreiging, omdat ze gebruik kunnen maken van synthetiserende technieken om stemmen te repliceren.

Een andere methode voor het maken van deepfakes is het gebruik van autoencoderarchitectuur. Een autoencoder-neuraal netwerk is ontworpen om gegevens (zoals een afbeelding) te coderen in een lagere dimensionale latente representatie (d.w.z. in wiskundige vectoren in plaats van pixels), de gegevens te comprimeren en vervolgens dezelfde gegevens aan het andere uiteinde van de pijplijn te reconstrueren. Autoencoders worden voor veel doeleinden gebruikt in computer vision, zoals handschriftanalyse en gezichtsherkenning.

Omdat autoencoders 'essentiële' gegevens uit een afbeelding (zoals een gezichtsafbeelding) halen, zijn ze erg goed in het elimineren van visuele ruis. In het geval van deepfake-software betekent dit dat een autoencoderarchitectuur fundamentele kenmerken en eigenschappen van een gezichtsafbeelding kan leren, terwijl overbodige factoren zoals korrel, schaduwen en andere 'niet-gezichts'-elementen die mogelijk in de afbeelding aanwezig zijn, grotendeels worden genegeerd. Dit resulteert in veelzijdige en goed gegeneraliseerde modellen (d.w.z. modellen die nuttige transformaties kunnen uitvoeren op gegevens die verschillen van hun oorspronkelijke trainingsgegevens).

Hoe worden deepfakes gebruikt?

Hoewel het concept deepfakes ook wordt gebruikt om visuele effecten in films te creëren, hebben online deepfakes verschillende bedoelingen:

Desinformatiecampagnes, vooral tijdens verkiezingen, om de mening van mensen te beïnvloeden.

Chantage houdt in dat iemand een deepfake-video of -foto van je maakt en dreigt deze te publiceren als je niet aan zijn of haar eisen voldoet.

Bij SAD- phishing doet iemand zich in realtime voor als iemand anders, onder het mom van hulp aan een vriend, familielid of collega.

Financiële fraude door middel van deepfakes en identiteitsdiefstal .

Gevaren van deepfakes

Naarmate technologie en AI evolueren, worden online deepfake-video's en -afbeeldingen gemakkelijker te maken en overtuigender. Bedrijven, beroemdheden, werknemers, verkiezingskandidaten en gewone burgers lopen grote risico's als ze slachtoffer worden van deepfakes.

Fraude

In 2023 betaalde een financieel medewerker in Hongkong 25 miljoen dollar aan een oplichter dankzij deepfake-technologie. De werknemer werd uitgenodigd om deel te nemen aan een videogesprek met collega's en de financieel directeur van het bedrijf. Tijdens het gesprek ging de werknemer akkoord met het overmaken van 200 miljoen Hongkongse dollars.

Ook al zag hij de andere werknemers en de CFO in de vergadering, het was een nep-AI die de gezichtsherkenningsfuncties manipuleerde om op de collega's en de CFO te lijken.

Chantage en smaad

In 2020 ontdekte de Zuid-Koreaanse politie een bende mannen die foto's van middelbare schoolmeisjes maakten om deze te verspreiden via de berichtenapp Telegram. De mannen werden geholpen door middelbare scholieren die foto's maakten van hun klasgenoten, van wie sommigen minderjarig waren, en deze vervolgens naar de makers stuurden.

Deze video's werden verspreid via verschillende platforms , waardoor de meisjes machteloos stonden. Ook al zijn zij niet op heterdaad begaan, het vervalste bewijsmateriaal heeft invloed op de manier waarop ze door de maatschappij worden gezien en is nog steeds traumatiserend.

Droefheid

In 2024 werd de 77-jarige Nikki uit het Verenigd Koninkrijk voor £ 17.000 opgelicht via deepfakevideo's. De vrouw ontmoette online een andere vrouw en ze kregen een relatie - dat dacht ze tenminste. De oplichter beweerde dat ze op een boorplatform werkte en geen videogesprek kon voeren. Het slachtoffer moest vouchers kopen om toegang tot internet te krijgen. Toen Nikki argwaan kreeg, begon de dader haar video's van 'haarzelf op het boorplatform' te sturen. Daarmee werd Nikki's argwaan weggenomen. Terwijl de relatie voortduurde, vroeg Nikki vaak om een videogesprek. Dit werd altijd afgewezen. Maar kort daarna ontving ze dan door AI gegenereerde documenten, afbeeldingen en video's om haar gerust te stellen. Vervolgens vroeg ze om meer geld.

Nikki werd pas op de hoogte gebracht van de oplichting toen ze geld wilde overmaken naar de bankrekening van haar partner.

Onschadelijke deepfakes

Sommige online deepfakes worden puur voor entertainmentdoeleinden uitgevoerd in een poging om meer volgers te krijgen op sociale-mediaplatformen.

Een van de populairste deepfakes was die van Tom Cruise , die op TikTok werd uitgebracht. Het account had een miljoen volgers en sommige video's werden bijna 50 miljoen keer bekeken, ondanks dat het niet Tom Cruise was. In eerste instantie dachten mensen dat de beroemdheid zich bij het platform had aangesloten omdat de video's, de gelijkenis, de stem en zelfs de persoonlijkheid zo overtuigend waren.

In 2022 nam een YouTube-maker, Shamook, de nieuwe trailer van de Spider-Man-film en verving acteur Tom Holland door de originele acteur Tobey Maguire. In de titel van de video wordt vermeld dat het om een Deepfake gaat. Het is dus puur bedoeld voor entertainmentdoeleinden.

Deepfake voorkomen

Deepfakes vormen een groeiend probleem en vormen een veiligheidsrisico. U kunt maatregelen nemen om te voorkomen dat dit u of uw bedrijf overkomt.

Controleer alle verzoeken

Als u wordt gevraagd om persoonlijke of gevoelige informatie, bevestig dan de identiteit van de beller via een tweede kanaal. U kunt hem of haar bijvoorbeeld terugbellen op het bedrijf waarvan hij of zij zei dat hij of zij werkte.

Gebruik privacyinstellingen op alle online accounts

Beperk de toegang tot sociale media-accounts met video's of afbeeldingen van jou om de kans te verkleinen dat jij op iemand lijkt.

Wachtwoordbeveiliging

Verander je wachtwoorden regelmatig. Zorg ervoor dat alle wachtwoorden sterk , uniek, complex en minimaal 16 tekens lang zijn. Gebruik voor gedeelde accounts software waarmee u uw wachtwoorden kunt delen, zodat u uw wachtwoord niet aan uw familieleden of werknemers hoeft te geven.

Voeg tweefactorauthenticatie toe voor accounts

Zorg ervoor dat u bij alle online accounts uw identiteit moet verifiëren voordat u toegang krijgt met behulp van tweefactorauthenticatie. Hierdoor wordt het voor oplichters moeilijker om uw accounts te hacken.

Werk de software regelmatig bij

Software-updates zijn essentieel om ervoor te zorgen dat uw apparaten beschermd zijn tegen de nieuwste malware , spyware en bugs.

Medewerkers trainen

Net zoals de technologie evolueert, verandert ook de modus operandi van deepfake-fraude. Het is belangrijk om op de hoogte te blijven van de nieuwste vormen van oplichting en met medewerkers te praten over hoe ze deze kunnen herkennen.

Leer hoe je een deepfake-video herkent

Bekijk de gezichtskenmerken van de persoon in de video om te controleren of deze overeenkomen met normale menselijke bewegingen.

Schokkerig of is de helderheid van de video niet consistent?

Let op natuurlijke bewegingen, zoals knipperen. Is het te weinig of te veel?

Kijk naar de schaduwen en belichting in de video en controleer of deze consistent zijn.

Maak een screenshot en upload deze naar Google om de bron te verifiëren.

Wat te doen als u wordt aangevallen

Documenteer het bewijs

Zorg ervoor dat u de deepfakes en alles wat daarmee te maken heeft opslaat. Denk hierbij aan opmerkingen, de platforms waarop het bericht is gedeeld (indien van toepassing), screenshots en alle bijbehorende gegevens. Noteer de datum, tijd en het platform waarop het gebeurde.

Platforms informeren

Als de deepfake-inhoud afkomstig is van een platform, meld dit dan bij het platform waarop u de inhoud hebt gezien, bijvoorbeeld YouTube, Facebook of X. De meeste platforms hebben beleid voor het verwijderen van gemanipuleerde media .

Neem contact op met de autoriteiten

Deepfakes waarbij sprake is van identiteits- of financiële diefstal zijn misdrijven. Breng de lokale wetshandhaving op de hoogte en leg uw bewijsmateriaal voor, zodat de autoriteiten een formeel rapport kunnen opmaken. U kunt dit rapport gebruiken voor uw bank-, verzekerings- en andere officiële accounts over het misdrijf.

Juridische stappen ondernemen

Doe onderzoek naar de wetten inzake smaad, auteursrecht en privacy in uw rechtsgebied om er zeker van te zijn dat u een overtuigende zaak heeft. Controleer of andere mensen niet ook slachtoffer zijn geworden van deze oplichting en start indien mogelijk een collectieve rechtszaak.

Huur een PR-bureau in

Als uw reputatie of die van uw bedrijf op het spel staat, kunt u een expert op het gebied van public relations inschakelen. Hij of zij kan u helpen bij het opstellen van een reactie en het verspreiden hiervan naar de benodigde partijen om de schade te beperken.

alt="De mogelijke dreigingen en gevaren van deepfake”

De modernste anti-neptechnologie

Verschillende technologiebedrijven ontwikkelen tools voor het detecteren van deepfakes om de verspreiding van misinformatie, fraude en SAD-phishingaanvallen tegen te gaan.

Er zijn verschillende technologieën in opkomst waarmee videomakers hun clips kunnen waarmerken. Zo kun je een versleuteld algoritme gebruiken om op vaste momenten hashes toe te voegen aan een video. Als er met de video wordt gerommeld, veranderen de hashes. AI en blockchain bieden de mogelijkheid om een manipulatiebestendige digitale vingerafdruk aan video's toe te voegen. Dit is vergelijkbaar met het watermerk van een document. Het probleem bij video is dat de hashes bestendig moeten zijn tegen compressie van de video voor gebruik met andere codecs.

Een andere manier om pogingen tot deepfake de kop in te drukken, is om een programma te gebruiken dat speciaal ontworpen ‘digitale artefacten’ in video's verwerkt om het door gezichtsherkenningssoftware gebruikte pixelpatroon te verbergen. Deze zorgen ervoor dat deepfake-algoritmen vertragen en leiden tot kwalitatief slechte resultaten, zodat deepfakes eenvoudiger te herkennen zijn.

Preventieve beveiliging:

zorgen dat werknemers en familieleden bekend zijn met de uitdagingen van deepfake en weten hoe het werkt;

jezelf en anderen aanleren hoe je een deepfake kunt herkennen;

zorgen dat je mediavaardig bent en kwalitatief goede nieuwsbronnen gebruikt;

Zorg voor goede basisprotocollen. Een sceptische houding ten aanzien van voicemail en video's is geen garantie om nooit bedrogen te worden, maar kan helpen veel valkuilen te omzeilen.

Maak regelmatig backups van je gegevens, zodat je beschermd bent tegen ransomware en beschadigde data kunt herstellen.

Gebruik verschillende, sterke wachtwoorden voor verschillende accounts. Zo zorg je dat wanneer criminelen één netwerk of dienst binnendringen, de andere nog veilig zijn. Als iemand je Facebook-account binnendringt, wil je niet dat die persoon ook toegang krijgt tot je andere accounts.

Gebruik een goed beveiligingspakket zoals Kaspersky Antivirus om uw thuisnetwerk, laptop en smartphone te beschermen tegen cyberdreigingen. Dit pakket bevat antivirussoftware, een VPN om te voorkomen dat uw wifi-verbindingen worden gehackt en bescherming voor uw webcams.

Hoe ziet de toekomst van Deepfake eruit?

Deepfake blijft in ontwikkeling. Twee jaar geleden was het nog heel eenvoudig om deepfake-video's te herkennen; dankzij de schokkerige bewegingen en omdat de neppersoon nooit met de ogen knipperde. Door ervoor te zorgen dat u veilig online blijft en dat u waakzaam en achterdochtig blijft bij alle onlineactiviteiten, vooral als het om persoonlijke informatie gaat, kunnen mensen fraude herkennen voordat deze plaatsvindt.

Veelgestelde vragen over cyberstalking

Wat is phishing?

Socially engineered attacks on deception (SAD) zijn een vorm van phishingfraude waarbij mensen worden opgelicht en gemanipuleerd door zich voor te doen als echte mensen. Het doel van deze oplichtingspraktijken is om gevoelige informatie te verkrijgen en slachtoffers ertoe aan te zetten geld over te maken of toegang te krijgen tot systemen.

Moet ik me zorgen maken over oplichting met voice deepfakes?

Ja. Oplichters kunnen nu deepfake-audio's maken die precies hetzelfde klinken als jij, om geld af te persen van vrienden, familie of collega's onder het mom van jou te helpen. U kunt dit omzeilen door een codewoord of veiligheidsvraag af te spreken met uw dierbaren. Een oplichter weet het antwoord hierop niet. U kunt deze vraag tijdens een telefoongesprek stellen om hun identiteit te verifiëren.

Hoe gebeurt identiteitsdiefstal?

Fraudeurs kunnen uw beeltenis of stem gebruiken om documenten te vervalsen, rekeningnummers te wijzigen of zich via de telefoon voor u uit te geven.

Hoe worden deepfakes gemaakt?

Deepfake-video's, audio en afbeeldingen worden gemaakt door kunstmatige intelligentie (AI). De machine learning verzamelt alle gegevens over uw fysieke verschijning en maakt er een gesynthetiseerde versie van.

Aanbevolen producten:

Deepfake en nepvideo's - Hoe kun jij jezelf beschermen?

Deepfakes vormen een groeiende zorg voor bedrijven, verkiezingsfunctionarissen en uzelf. Leer meer over deepfakes en wat je moet doen als je slachtoffer wordt.
Kaspersky logo

Gerelateerde artikelen