Digitale weerbaarheid

Is schaduw-AI je grootste blinde vlek op het gebied van beveiliging?

8 minuten leestijd

door Michelle Dolk

Van onbedoelde datalekken tot buggy code: recente incidenten laten zien waarom ongeoorloofd AI-gebruik een serieus bedrijfsrisico is

Schaduw-IT is al lang een bekende frustratie voor IT- en beveiligingsteams. Wat buiten het zicht gebeurt, laat zich nu eenmaal lastig beheren of beschermen. Met de opkomst van kunstmatige intelligentie (AI) dreigt dat probleem alleen maar groter te worden. De schaal, snelheid en toegankelijkheid van moderne AI-tools maken dat schaduw-AI zich razendsnel kan verspreiden, vaak sneller dan beleid en beveiliging kunnen bijhouden.

Dat dit geen theoretisch risico meer is, blijkt uit recente cijfers. De Autoriteit Persoonsgegevens (AP) ontving dit jaar tientallen meldingen van datalekken die gerelateerd zijn aan het gebruik van AI-chatbots op de werkvloer. Een opvallend voorbeeld is een incident bij de gemeente Eindhoven, waar cv’s, jeugdzorgdossiers en interne documenten door medewerkers werden ingevoerd in openbare, gratis AI-tools zoals ChatGPT. Die gegevens kwamen daarmee buiten de gecontroleerde IT-omgeving terecht, met alle privacy- en compliancegevolgen van dien.

Dit soort incidenten laat zien hoe groot het risico van schaduw-AI inmiddels is. Net als bij schaduw-IT gaat het om technologie die buiten beleid, toezicht en beveiliging om wordt gebruikt. Medewerkers experimenteren vaak met de beste bedoelingen: om efficiënter te werken, tijd te besparen of de werkdruk te verlagen. Maar ondertussen is er weinig zicht op wat er met ingevoerde data gebeurt en welke risico’s dat oplevert. Voor veel organisaties is schaduw-AI daarmee uitgegroeid tot een van de grootste, en minst zichtbare, beveiligingsrisico’s.

Wat is schaduw-AI?

AI-tools maken al langer deel uit van bedrijfs-IT. Al sinds het begin van de jaren 2000 worden ze ingezet om bijvoorbeeld afwijkend netwerkgedrag te detecteren of spam te filteren. Maar de huidige golf van generatieve AI is fundamenteel anders.

Sinds de doorbraak van OpenAI’s ChatGPT in 2023, dat binnen twee maanden 100 miljoen gebruikers wist te trekken, zijn werknemers massaal onder de indruk geraakt van wat AI voor hen kan betekenen. Teksten schrijven, code genereren, analyses maken: het lijkt allemaal binnen handbereik. Voor veel organisaties kwam die ontwikkeling echter sneller dan verwacht. Ze zijn nog zoekende naar hoe ze AI veilig, verantwoord en gecontroleerd kunnen inzetten.

Dat heeft ruimte gecreëerd voor eigen initiatief. Hoewel het lastig is om een trend die per definitie in de schaduw bestaat, nauwkeurig te meten, schat Microsoft dat 78% van de AI-gebruikers nu hun eigen tools meeneemt naar het werk. Het is geen toeval dat 60% van de IT-leiders zich zorgen maakt dat het senior management geen plan heeft om de technologie officieel te implementeren.

Populaire chatbots zoals ChatGPT, Gemini en Claude zijn eenvoudig te gebruiken en snel te installeren, ook op privéapparaten die worden ingezet voor thuiswerken. Voor veel medewerkers zijn ze aantrekkelijk omdat ze beloven werk te verlichten, deadlines haalbaarder te maken en ruimte te creëren voor taken met meer toegevoegde waarde.

Meer dan openbare AI-modellen

Standalone AI-apps vormen een belangrijk deel van de schaduw-AI-uitdaging, maar ze zijn zeker niet de enige bron. De AI-functionaliteit kan ook ongemerkt het bedrijf binnendringen via browserextensies of via functies in bestaande bedrijfssoftware die gebruikers kunnen activeren zonder dat IT daarvan op de hoogte is.

Daarnaast staat er een nieuwe ontwikkeling voor de deur: agentische AI. Dit zijn autonome AI-systemen die zelfstandig taken uitvoeren op basis van instructies van gebruikers. Zonder de juiste beveiliging kunnen ze mogelijk toegang krijgen tot gevoelige gegevensopslagplaatsen en ongeoorloofde of kwaadaardige acties uitvoeren. Tegen de tijd dat dit wordt ontdekt, kan het al te laat zijn.

Wat zijn de risico's van schaduw-AI?

Het ongecontroleerde gebruik van AI brengt aanzienlijke beveiligings- en compliancerisico’s met zich mee. Bij het gebruik van openbare AI-modellen bestaat bij elke prompt het risico dat gevoelige en/of gereguleerde gegevens worden gedeeld. Dit kunnen notulen van vergaderingen, intellectueel eigendom, code of persoonlijk identificeerbare informatie (PII) van klanten/werknemers zijn.

Wat veel gebruikers zich niet realiseren, is dat ingevoerde data vaak wordt opgeslagen en kan worden gebruikt om modellen verder te trainen. Die gegevens kunnen belanden op servers van derden, soms in landen met andere wet- en regelgeving dan de organisatie zelf hanteert. Dat is problematisch vanuit het oogpunt van privacywetgeving zoals de GDPR.

Daarnaast stelt het de organisatie bloot aan risico's, omdat medewerkers van de chatbotontwikkelaar mogelijk toegang kunnen krijgen tot je gevoelige informatie. De gegevens kunnen ook worden gelekt of geschonden door die provider, zoals gebeurde bij de Chinese provider DeepSeek.

Maar daar stoppen de risico’s niet

De risico’s beperken zich niet tot datalekken alleen. Chatbots kunnen kwetsbaarheden bevatten of achterdeurtjes introduceren die organisaties blootstellen aan gerichte aanvallen. Ook bestaat het risico dat medewerkers onbewust een kwaadaardige nepversie van een AI-tool installeren, speciaal ontworpen om gegevens te stelen. Zulke nep-GenAI-tools zijn inmiddels ruim beschikbaar.

Bovendien is AI-output niet altijd betrouwbaar. Ongecontroleerd gebruik van AI bij softwareontwikkeling kan leiden tot kwetsbare of foutieve code. AI-gedreven analyses kunnen verkeerde conclusies opleveren als modellen zijn getraind op onvolledige of bevooroordeelde data. En autonome AI-agents kunnen acties uitvoeren zonder dat hun menselijke ‘eigenaar’ daar direct zicht op heeft.

Sommige van deze risico's zijn nog theoretisch, andere niet. Maar IBM meldt dat vorig jaar al 20 procent van de organisaties te maken heeft gehad met een datalek als gevolg van beveiligingsincidenten met schaduw-AI. Voor bedrijven waar veel sprake is van schaduw-AI kan dit volgens hun berekeningen oplopen tot 670.000 dollar bovenop de gemiddelde kosten van een datalek. Duidelijk is: inbreuken in verband met schaduw-AI kunnen aanzienlijke financiële- en reputatieschade veroorzaken. En dan hebben we het nog niet eens gehad over boetes voor het niet naleven van de wet- en regelgeving. Bovendien kunnen zakelijke beslissingen die worden genomen op basis van foutieve of corrupte output kunnen net zo schadelijk zijn, zo niet schadelijker, vooral omdat ze waarschijnlijk onopgemerkt blijven.

Schaduw-AI onder de loep

Het simpelweg blokkeren van AI-tools of het uitbreiden van een ‘deny list’  (een lijst van toepassingen die expliciet verboden zijn binnen de organisatie) is geen duurzame oplossing. Organisaties moeten eerst erkennen dát schaduw-AI wordt gebruikt, begrijpen waar en waarvoor, en vervolgens een realistisch beleid formuleren voor verantwoord gebruik. Dat vraagt om interne tests, duidelijke richtlijnen en gepaste zorgvuldigheid bij het gebruik van AI-leveranciers.

Omdat geen organisatie hetzelfde is, moet beleid aansluiten bij de eigen risicobereidheid. Zorg waar mogelijk voor veilige, goedgekeurde alternatieven, zodat medewerkers niet worden gedwongen uit te wijken naar ongecontroleerde tools. Maak daarnaast het aanvragen van nieuwe tools laagdrempelig, zodat innovatie niet wordt afgeremd.

Voorlichting speelt hierin een cruciale rol. Medewerkers moeten begrijpen welke risico’s schaduw-AI met zich meebrengt, voor henzelf én voor de organisatie. Ernstige datalekken kunnen leiden tot stilvallende processen, vertraagde digitale transformatie en zelfs banenverlies. Aanvullend kunnen monitoring- en beveiligingstools helpen om inzicht te krijgen in AI-gebruik en risico’s tijdig te beperken.

Cyberbeveiliging blijft altijd een balans tussen risico’s beheersen en productiviteit ondersteunen. Dat geldt ook voor schaduw-AI. Organisaties die erin slagen AI veilig en verantwoord te integreren, leggen niet alleen een stevig beveiligingsfundament, maar creëren ook ruimte voor groei. Want één ding is zeker: AI zal de komende jaren een steeds grotere rol spelen in vrijwel elke organisatie.