In handen van kwaadwillenden kunnen AI-tools de schaal en ernst van fraude, desinformatiecampagnes en andere dreigingen vergroten.
AI heeft de cyberbeveiligingswedloop in het afgelopen jaar in een stroomversnelling gebracht. De komende 12 maanden zullen daar geen verandering in brengen. Dit heeft grote gevolgen voor zakelijke cybersecurity-teams, hun werkgevers en dagelijkse internetgebruikers. Hoewel AI-technologie verdedigers helpt om de beveiliging te verbeteren, verspillen kwaadwillenden geen tijd om AI-aangedreven tools te benutten. Dit zal leiden tot een toename van fraude, social engineering, accountdiefstal, desinformatie en andere dreigingen.
In dit artikel lees je wat je kunt verwachten in 2025.
Wat staat ons te wachten?
Begin 2024 waarschuwde het Nationaal Cyber Security Centrum (NCSC-NL) dat AI al wordt gebruikt door alle soorten dreigingsactoren en dat dit "bijna zeker het volume en de impact van cyberaanvallen in de komende twee jaar zal vergroten."
De dreiging is het meest acuut bij social engineering, waar generatieve AI (GenAI) kwaadwillenden kan helpen uiterst overtuigende campagnes te creëren in foutloze lokale talen. Ook bij verkenning kan AI grootschalige identificatie van kwetsbare systemen automatiseren.
Deze trends zullen zich naar verwachting in 2025 voortzetten, maar AI kan ook worden ingezet voor:
- Omzeilen van authenticatie: Deepfake-technologie kan worden gebruikt om fraudeurs te helpen klanten te imiteren bij selfie- en videocontroles voor accounttoegang.
- Business Email Compromise (BEC): AI kan worden ingezet voor social engineering, waarbij ontvangers worden misleid om geld over te maken naar frauduleuze rekeningen. Deepfake-audio en -video kunnen worden gebruikt om CEO’s of andere leiders te imiteren.
- Imitatiescams: Open-source Large Language Models (LLMs) kunnen worden getraind op gegevens van gehackte of openbare socialemediaprofielen om slachtoffers te imiteren bij oplichting zoals virtuele ontvoeringen.
- Invloedrijke scams: GenAI kan worden gebruikt om nepaccounts van beroemdheden of influencers te creëren en deepfake-video's te plaatsen om volgers te misleiden.
- Desinformatie: Vijandige staten en andere actoren kunnen GenAI inzetten om gemakkelijk nepinhoud te genereren en sociale mediagebruikers te misleiden voor invloedscampagnes.
- Wachtwoord achterhalen: AI-tools kunnen in korte tijd gebruikersreferenties onthullen en toegang krijgen tot bedrijfsnetwerken en accounts.
AI-privacyzorgen in 2025
AI is niet alleen een tool voor dreigingsactoren, maar kan ook een verhoogd risico op datalekken met zich meebrengen. LLM’s hebben enorme hoeveelheden gegevens nodig om te trainen, waaronder soms gevoelige informatie zoals biometrie, gezondheidsgegevens en financiële data. Wanneer deze gegevens eenmaal zijn verwerkt, kunnen ze risico's vormen als het AI-systeem wordt gehackt of als informatie via GenAI-apps wordt gedeeld.
De Autoriteit Persoonsgegevens (AP) waarschuwt dat het invoeren van persoonsgegevens in AI-chatbots kan leiden tot datalekken, waarbij gevoelige informatie onbedoeld wordt gedeeld met de aanbieders van deze chatbots.
AI voor verdedigers in 2025
Er is ook goed nieuws: AI zal een steeds belangrijkere rol spelen in de werkzaamheden van cybersecurity-teams. Innovaties zullen helpen bij:
- Het genereren van synthetische data voor training van gebruikers en beveiligingsteams.
- Het samenvatten van complexe dreigingsrapporten voor analisten.
- Het verbeteren van SecOps-productiviteit door waarschuwingen te contextualiseren en workflows te automatiseren.
- Het scannen van grote datavolumes op tekenen van verdacht gedrag.
- Het ondersteunen van IT-teams via “copilot”-functionaliteiten om configuratiefouten te minimaliseren.
Echter, IT- en beveiligingsleiders moeten de beperkingen van AI begrijpen en blijven vertrouwen op menselijke expertise. Een balans tussen mens en machine is noodzakelijk om risico's zoals fouten en modeldegradatie te beheersen.
Uitdagingen op het gebied van AI-compliance en handhaving
De ontwikkeling van AI-technologie gebeurt niet in een vacuüm. Geopolitieke veranderingen in 2025 kunnen leiden tot deregulering in de technologie- en sociale mediasectoren, waardoor kwaadwillenden meer mogelijkheden krijgen om AI-gegenereerde dreigingen te verspreiden.
In de EU heerst nog onzekerheid over AI-regelgeving, zoals de implementatie van de EU AI Act. Lobbyactiviteiten vanuit de technologiesector kunnen van invloed zijn op de uiteindelijke vorm van deze wetgeving.
Wat duidelijk is, is dat AI de manier waarop we technologie gebruiken in 2025 ingrijpend zal veranderen. Het is in ieders belang om samen te werken om AI’s potentieel te benutten en tegelijkertijd de risico's te beheersen. Overheden, bedrijven en gebruikers moeten hierin hun verantwoordelijkheid nemen.