Nu vervalste afbeeldingen, video's en geluidsopnamen van echte mensen steeds populairder worden, is het vooruitzicht van enorme hoeveelheden aan AI-gestuurde desinformatie een reden tot toenemende bezorgdheid.
Nepnieuws heeft de voorpagina’s gedomineerd sinds het in 2016 invloed had op de strijd om het Witte Huis. Maar acht jaar later is er een aantoonbaar grotere dreiging: een combinatie van desinformatie en deepfakes, die zelfs de experts voor de gek kan houden. De kans is groot dat recente voorbeelden van AI-gegenereerde content met verkiezingsthema’s voorbodes zijn van wat er waarschijnlijk op grotere schaal gaat komen. De voorbeelden zijn onder andere een hele reeks afbeeldingen en video's die circuleerden in de aanloop naar de huidige verkiezingen in Argentinië en een bewerkte audio van de Amerikaanse president Joe Biden.
De dreiging van desinformatie door deepfakes
Met ongeveer een kwart van de wereldbevolking die in 2024 naar de stembus gaat, staan er dit jaar maar liefst twee miljard mensen op het punt om naar hun lokale stembureaus te gaan om te stemmen op hun favoriete vertegenwoordigers en staatsleiders. Er vinden belangrijke verkiezingen plaats in meerdere landen waaronder het Europees Parlement, de VS, het VK en India. Hierdoor heeft dit de potentie om het politieke landschap en de richting van de geopolitiek voor de komende jaren - en de jaren daarna - te veranderen.
Tegelijkertijd werd desinformatie onlangs door het World Economic Forum (WEF) gerangschikt als het grootste mondiale risico voor de komende twee jaar.
De uitdaging met deepfakes is dat de door AI aangedreven technologie nu goedkoop, toegankelijk en krachtig genoeg wordt om op grote schaal schade aan te richten. Het maakt het voor cybercriminelen, statelijke actoren en hacktivisten mogelijk om overtuigende desinformatiecampagnes en meer ad hoc, eenmalige oplichtingspraktijken te lanceren. Dit is één van de redenen waarom het WEF misinformatie/disinformatie onlangs heeft uitgeroepen tot het grootste wereldwijde risico van de komende twee jaar, en het op één na grootste huidige risico. Dit is volgens 1.490 experts uit de academische wereld, het bedrijfsleven, de overheid, de internationale gemeenschap en het maatschappelijk middenveld die het WEF heeft geraadpleegd.
Het rapport waarschuwt: "Synthetische inhoud zal de komende twee jaar individuen manipuleren, economieën beschadigen en samenlevingen op talloze manieren ontwrichten (...) het risico bestaat dat sommige regeringen te traag zullen handelen en een afweging moeten maken tussen het voorkomen van desinformatie en het beschermen van de vrijheid van meningsuiting." |
(Deep)faken
De uitdaging is dat tools zoals ChatGPT en vrij toegankelijke generatieve AI (GenAI) het mogelijk hebben gemaakt voor een breder scala aan individuen om zich bezig te houden met het creëren van desinformatiecampagnes op basis van deepfake-technologie. Nu al het harde werk voor hen is gedaan, hebben kwaadwillende actoren meer tijd om te werken aan hun berichten en versterkingsinspanningen om ervoor te zorgen dat hun valse inhoud wordt gezien en gehoord.
In een verkiezingscontext kunnen deepfakes worden gebruikt om het vertrouwen van kiezers in een bepaalde kandidaat te beschadigen. Het is immers makkelijker om iemand te overtuigen iets niet te doen, dan andersom. Als aanhangers van een politieke partij of kandidaat op gepaste wijze kunnen worden beïnvloed door vervalste audio of video, zou dat een duidelijke overwinning zijn voor rivaliserende groepen. In sommige situaties kunnen kwaadwillende staten proberen om het vertrouwen in het hele democratische proces te ondermijnen, zodat wie er ook wint diegene het moeilijk zal hebben om legitiem te regeren.
De kern van de uitdaging ligt in een eenvoudige waarheid: wanneer mensen informatie verwerken, hechten ze veel waarde aan kwantiteit en begrijpelijkheid. Dat betekent dat hoe meer inhoud we zien met een soortgelijke boodschap en hoe makkelijker die te begrijpen is, hoe groter de kans dat we het geloven. Daarom bestaan marketingcampagnes vaak uit korte en steeds herhaalde boodschappen. Voeg hieraan toe dat deepfakes steeds moeilijker te onderscheiden zijn van echte content en je hebt een potentieel recept voor rampen op democratisch vlak.
Van theorie naar praktijk
Het is zorgwekkend dat deepfakes dit jaar waarschijnlijk invloed gaan hebben op het stemgedrag onder kiezers. Neem dit nieuwe voorbeeld: In januari 2024 werd een deepfake audio van de Amerikaanse president Joe Biden via een robocall verspreid onder een onbekend aantal voorkiezers in New Hampshire. In de boodschap vertelde hij hen blijkbaar dat ze niet naar de stembus moesten gaan en in plaats daarvan "hun stem moesten bewaren voor de verkiezingen in november". Het nummer van de beller was ook vervalst zodat het leek alsof het geautomatiseerde bericht afkomstig was van het persoonlijke nummer van Kathy Sullivan, een voormalige voorzitster van de Democratische Partij van de staat die nu een pro-Biden super-PAC runt.
Het is niet moeilijk in te zien hoe zulke telefoontjes gebruikt zouden kunnen worden om kiezers te ontmoedigen om voor hun favoriete kandidaat te stemmen in de aanloop naar de presidentsverkiezingen in november. Het risico zal vooral groot zijn bij verkiezingen met een scherpe strijd, waar de verschuiving van een klein aantal kiezers van de ene naar de andere partij de uitslag bepaalt. Met slechts tienduizenden kiezers in een handvol beslissende staten die waarschijnlijk de uitkomst van de verkiezingen zullen bepalen, kan een gerichte campagne als deze erg veel schade aanrichten. En als klap op de vuurpijl is het nog moeilijker om de impact te volgen of te meten, omdat de campagne zich in het bovenstaande geval verspreidde via radiogesprekken, in plaats van sociale media.
Wat doen de tech bedrijven eraan?
Zowel YouTube als Facebook zouden traag hebben gereageerd op een aantal deepfakes die bedoeld waren om een recente verkiezing te beïnvloeden. Dit ondanks een nieuwe EU-wet (de Digital Services Act) die sociale mediabedrijven verplicht om pogingen tot verkiezingsmanipulatie tegen te gaan.
OpenAI heeft van zijn kant gezegd dat het de digitale referenties van de Coalition for Content Provenance and Authenticity (C2PA) zal implementeren voor afbeeldingen die worden gegenereerd door DALL-E 3. De technologie achter de cryptografische watermerken - die ook wordt getest door Meta en Google - is ontworpen om het moeilijker te maken om valse afbeeldingen te produceren.
Dit zijn echter nog maar babystapjes en er is terechte bezorgdheid dat het technologische antwoord op de dreiging te weinig en te laat zal zijn nu de verkiezingskoorts de wereld in zijn greep houdt. Vooral wanneer de verspreiding plaatsvindt in relatief gesloten netwerken zoals WhatsApp-groepen of via robotbelletjes, zal het moeilijk zijn om vervalste audio of video snel op te sporen en te ontkrachten.
De theorie van "anchoring bias" suggereert dat het eerste stukje informatie dat mensen horen in ons geheugen blijft hangen, zelfs als het vals blijkt te zijn. Als deepfakers als eerste de kiezers bereiken, is het helemaal niet meer de vraag wie de uiteindelijke winnaar wordt. In het tijdperk van sociale media en AI-gestuurde desinformatie, krijgt Jonathan Swift's uitspraak "onwaarheid vliegt, en de waarheid komt er hinkend achteraan" een geheel nieuwe betekenis.