Als je via Zoom of Teams videobelt met je leidinggevende en je krijgt de vraag om een bepaalde financiële transactie uit te voeren, zou je er dan bij stilstaan of de persoon op je scherm wel echt je leidinggevende is? We hebben tegenwoordig steeds vaker te maken met deepfakes. Dit zijn neppe video’s en afbeeldingen, die soms niet van echt te onderscheiden zijn. Je kunt iemand iets laten doen of zeggen, wat nooit is gedaan of gezegd. Aangezien de beelden of opnames zo overtuigend veranderd en gemanipuleerd zijn, zul je de echtheid van beelden steeds vaker in twijfel moeten nemen. Lees meer over deze moderne technologie, die zowel voor plezier, als voor cybercriminaliteit kan worden gebruikt.
Is het echt?
Met behulp van deep learning (een vorm van machine learning) kunnen mensen afbeeldingen, video's en geluidsopnames veranderen door iemands gezicht, lichaam of stem in een andere omgeving te plaatsen en het te laten lijken alsof ze dingen hebben gezegd of gedaan. Maar deze dingen zijn in werkelijkheid nooit gebeurd. Het resultaat? Een deepfake.
Wist je dat een computer een audio-deepfake kan maken door slechts 10-20 seconden van iemands stem te beluisteren?
Deze aandachttrekkende technologie is nu op grote schaal toegankelijk voor het publiek. Apps zoals FaceApp stellen mensen in staat om deepfake-video's te maken van vrijwel iedereen. Je kunt bijvoorbeeld je gezicht in een populaire muziekvideo stoppen of de hoofdrolspeler worden in je favoriete filmscène. Sommige deepfakes op internet kunnen grappig zijn, maar in verkeerde handen zijn gefabriceerde video- of audio-opnames ook cybercrime-gereedschap geworden dat wordt gebruikt om individuen of bedrijven aan te vallen.
Deepfake als pestkop, politieke manipulator of cyberaanvaller
Naast vermaak kunnen deepfakes ook ernstige juridische, persoonlijke of politieke gevolgen hebben. Bovendien kunnen cybercriminelen nu eenvoudig audio- of video-opnamen maken, door de mogelijkheden in de technologie van tegenwoordig.
In cybersecurity kunnen deepfakes worden gebruikt voor afpersing, fraude en manipulatie. Iemand kan bijvoorbeeld een nepvideo gebruiken om een CEO te chanteren, zodat hij betaalt voor de vernietiging van de video of het risico loopt de reputatie van het bedrijf in gevaar te brengen. Bedrijven kunnen vaker te maken krijgen met "vishing", een specifieke vorm van phishing waarbij deepfake- audio wordt gebruikt om werknemers te manipuleren. Kwaadwillenden kunnen op deze manier werknemers laten denken dat zij bepaalde orders van hun werkgever aan het opvolgen zijn.
Een van de bekendste gevallen van een deepfake -aanval vond plaats in 2019 toen de CEO van een Brits energiebedrijf een telefoontje kreeg van zijn baas, die hem vroeg bijna een kwart miljoen pond over te maken naar een leverancier in Hongarije. Omdat de stem klonk als die van zijn Duitse baas, volgde de CEO de bevelen op. Kort daarna volgde er nog een telefoontje waarin de CEO werd aangespoord om meer geld over te maken. Dit maakte hem achterdochtig en hij besloot vervolgens contact op te nemen met de autoriteiten. Kort daarna werd onthuld dat de CEO het slachtoffer was geworden van vishing, waarbij er deepfake-technologie was gebruikt om de stem van de Duitse chef te dupliceren.
In een andere deepfake-aanval is er op Russische radio- en tv-zenders een boodschap uitgezonden waarin president Vladimir Poetin zijn landgenoten zou waarschuwen voor een vermeende Oekraïense invasie van Rusland. Het Kremlin heeft echter verklaard dat het gaat om een hack en dat de uitgezonden toespraak nep is. Op sociale media zijn ook beelden verspreid waarin een deepfake van Poetin op televisie te zien is.
In de boodschap is een stem te horen die sterk lijkt op die van Poetin Deze stem beweert dat ‘’Oekraïense troepen die volledig bewapend zijn door de NAVO’’ de grens zijn overgestoken. Volgens berichten zou dezelfde boodschap ook op televisie zijn uitgezonden, waarbij een deepfake-versie van Poetin de woorden uitspreekt vanachter zijn bureau.
Toegankelijkheid van deepfake-technologie
Een zorgwekkend aspect van deepfakes is dat de technologie steeds toegankelijker wordt, zelfs voor mensen zonder geavanceerde technische kennis. Dit betekent dat kwaadwillenden relatief gemakkelijk overtuigende deepfake-content kunnen maken.
4 tips om jezelf te beschermen tegen deepfakes
1. Bewustwording
Wees alert op de opkomst van deepfake-technologie en de mogelijke risico’s die het met zich meebrengt. Blijf op de hoogte van nieuwe ontwikkelingen en verbeterde detectietechnieken.
2. Privacy-instellingen
Beperk de toegang tot persoonlijke foto’s en video’s op sociale media en andere platformen door het gebruik maken van de juiste privacy-instellingen. Ga naar privacy-instellingen van je sociale media-accounts en neem de tijd om ze grondig door te nemen. Pas de instellingen aan op een manier die overeenkomt met jouw voorkeuren. Zorg ervoor dat je begrijpt wie je berichten kan zien, wie je profiel kan bekijken en wie contact met je kan opnemen.
3. Wees kritisch
Wees kritisch bij het bekijken van verdachte video’s en afbeeldingen. Let op onnatuurlijke bewegingen en andere tekenen van manipulatie. Je kunt een video eventueel ook vertraagd afspelen, waardoor eigenaardigheden nog meer opvallen.
4. Digitale voetafdruk beheren
Een digitale voetafdruk is een optelsom van alles wat je online doet en ‘sporen’ achterlaat, dit wordt dus ook gevormd door alles wat je online doet. Wees selectief in wat je online deelt. Beperk de verspreiding van persoonlijke video’s en foto’s om het risico op misbruik te verminderen.
Let op! Trap niet in deepfakes
Als je sommige van de meer uitgebreide deepfakes bekijkt, heb je misschien het gevoel dat er geen manier is om te bepalen of wat je online ziet nep of echt is. Het is juist goed om een beetje sceptisch te blijven. Als je ook maar een beetje twijfelt aan wat je op je scherm ziet, ben je al een stap dichter bij veiligheid.
Maar hoe kun je een deepfake herkennen? Als het gaat om audio-opnames, zijn deepfakes moeilijker te ontdekken, omdat ze precies kunnen klinken als een gewone menselijke stem. Sommige programma's kunnen nu deepfake-audio's detecteren. Hoe? De menselijke stem kan een beperkt aantal geluiden produceren; een "computerstem" is echter niet zo beperkt en klinkt dus net iets anders.
Kun je een deepfake identificeren zonder gespecialiseerde software? Het is misschien moeilijker, maar het is mogelijk. Hieronder lees je 5 aspecten waar je op moet letten bij deepfakes voor zowel video als audio:
1. Is de opname niet betrouwbaar?
Is de inhoud schandalig en probeert het duidelijk een emotionele reactie uit te lokken bij de kijkers/luisteraars? Als dat zo is, kan dat het eerste teken zijn om het sceptisch te benaderen en de informatie die je ziet of hoort te verifiëren.
2. Kijk goed naar de details
Vaak hebben makers van deepfakes moeite met het dupliceren van subtielere uitdrukkingen, zoals knipperen, ademhalen of subtiele haar- en gezichtsbewegingen. Af en toe kunnen er ook kleine haperingen zijn rond de gebieden die het meest bewegen. In audio-opnames kun je zoeken naar onnatuurlijke pauzes tussen woorden of juist naar overdreven perfecte spraak.
3. Het gaat niet alleen om het gezicht
Als iemand tegen ons praat, kijken we eerder naar het gezicht dan naar het lichaam. Deepfake-makers richten zich ook voornamelijk op het nabootsen van gezichtsuitdrukkingen, dus als de vorm van het lichaam of de bewegingen van de persoon in de video niet helemaal kloppen, kijk je hoogstwaarschijnlijk naar een deepfake.
4. Past de audio bij de video?
Soms slagen de makers van deepfakes er niet in om de audio-opname te matchen met de bewegingen van de persoon. Nogmaals, observeer het gezicht voorzichtig om te zien of de mondbewegingen overeenkomen met de woorden die eruit zouden komen.
5. Denk na over de verlichting
Is het consistent? Of lijkt de persoon bijvoorbeeld onnatuurlijk licht of donker? Verschillen in belichting kunnen een aanwijzing zijn.
IT-teams moeten hun bedrijven informeren over deepfakes en de risico's ervan. Aangezien deepfakes een fascinerend voorbeeld zijn van technologie die zowel entertainers, als cybercriminelen kunnen gebruiken, raden wij aan ernaar te streven om de training voor werknemers interactief te maken. Stuur de werknemers bijvoorbeeld een aantal video's en laat ze raden welke echt zijn en welke niet. Als je actieve deelname aanmoedigt, is het waarschijnlijker dat de werknemers onthouden wat ze hebben geleerd en hun kennis zullen gebruiken om jouw bedrijf veiliger te houden.