Digitale weerbaarheid

Bescherm jouw bedrijf tegen taalmodellen (LLM’s)

7 minuten leestijd

door Romy Tump

Iedereen heeft het tegenwoordig over ChatGPT, Bard en ander generatieve AI-tools. Maar na de hype komt onvermijdelijk de realiteitscheck. Zowel bedrijfsleiders, als IT-managers zijn enthousiast over de potentie van de technologie om de klantenservice en softwareontwikkeling te innoveren maar ze zijn zich ook steeds meer bewust van een aantal potentiële nadelen.

Kortom, als bedrijven de voordelen van ‘large language models’ (LLM's), ook wel grote taalmodellen genoemd, willen benutten, moeten ze ook in staat zijn om met de risico’s om te gaan.

Hoe werken LLM's?

Generatieve AI-tools, zoals ChatGPT, worden aangedreven door LLM’s. Deze tools maken gebruik van kunstmatige neutrale netwerken om grote hoeveelheden tekst te verwerken. Kunstmatige neutrale netwerken zijn een vorm van machine learning-technologie die geïnspireerd is op het functioneren van het menselijke brein. Nadat ze patronen in taalgebruik hebben ontdekt en begrijpen hoe woorden in context worden gebruikt, kunnen deze modellen op een natuurlijke manier met gebruikers communiceren. Een belangrijke reden voor het succes van ChatGPT is de mogelijkheid om grappen te maken, gedichten te schrijven en in het algemeen te communiceren op een manier die nauwelijks te onderscheiden is van een menselijke interactie.

De door LLM's aangedreven generatieve AI-tools fungeren als uiterst krachtige zoekmachines. Ze zijn getraind om op een menselijke manier vragen te beantwoorden en taken uit te voeren. Of het nu gaat om publieke modellen of aangepaste interne modellen binnen een organisatie, het gebruik van LLM-gebaseerde generatieve AI brengt specifieke security- en privacy risico’s met zich mee waar bedrijven rekening mee moeten houden.

5 belangrijkste risico's van LLM

1. Onbedoeld delen van gevoelige informatie

LLM-gebaseerde chatbots zijn niet goed in geheimen bewaren– eerder het tegenovergestelde. Dit betekent dat alle gegevens die je invoert, door het model kunnen worden opgenomen en potentieel beschikbaar kunnen worden gesteld aan anderen, of op zijn minst kunnen worden gebruikt voor de training van toekomstige LLM-modellen. Dit besef kwam als een schok voor Samsung-medewerkers toen ze vertrouwelijke informatie deelden met ChatGPT tijdens werk gerelateerde taken. De code en gespreksopnames die ze in de tool invoerden, zouden in theorie openbaar toegankelijk kunnen worden (of op zijn minst kunnen worden opgeslagen voor toekomstig gebruik, zoals recentelijk aangegeven door het Nationaal Cyber Security Centre van het Verenigd Koninkrijk). Eerder dit jaar heeft ESET onderzocht hoe organisaties kunnen voorkomen dat hun gegevens risico’s lopen bij het gebruik van LLM’s.

2. Auteursrechtelijke uitdagingen

LLM's worden getraind door een grote hoeveelheid data. Maar deze gegevens worden vaak van het internet gehaald, zonder dat de eigenaar hiervoor toestemming heeft gegeven. Wanneer je deze content inzet kan dit leiden tot mogelijke juridische problemen, zoals het schenden van auteursrechten. Het kan lastig zijn om de oorspronkelijke bron van de specifieke content te achterhalen, wat deze situatie lastig maakt.

3. Beveiligingsrisico’s in codes

Ontwikkelaars maken steeds vaker gebruik van ChatGPT en vergelijkbare tools om hun werk te versnellen. Theoretisch gezien kunnen codefragmenten en zelfs volledige softwareprogramma’s snel en efficiënt gegenereerd worden. Maar, beveiligingsexperts waarschuwen dat dit potentiële kwetsbaarheden met zich mee kan brengen. Dit wordt vooral problematisch wanneer de ontwikkelaar niet over voldoende expertise beschikt om naar welke beveiligingsfouten gekeken moet worden.  Als gebrekkige code onopgemerkt blijft en in wordt gebruikt, kan dit aanzienlijke schade toebrengen aan de reputatie en zowel tijd als geld kosten om te herstellen.

4. Beveiligingskwetsbaarheden in LLM’s

Ongeautoriseerde toegang tot en manipulatie van LLM’s kan kwaadwillende hackers de mogelijkheid bieden schadelijke activiteiten aan te richten. Bijvoorbeeld het dwingen van het model om gevoelige informatie vrij te geven via promptinjectie-aanvallen die niet zouden mogen plaatsvinden. Promptinjectie-aanvallen zijn aanvallen waarbij een aanvaller probeert om gevoelige informatie te verkrijgen van een model, systeem of toepassing door kwaadaardige opdrachten in te voeren. Andere dreigingen kunnen ontstaan door het uitbuiten van zwakke plekken in LLM-servers, zoals server-side request forgery (SSRF), waardoor aanvallers toegang kunnen krijgen tot interne bronnen. Aanvallers kunnen zelfs proberen te communiceren met vertrouwelijke systemen en bronnen door kwaadaardige commando’s te verzenden via natuurlijke taalprompts. Dit zijn specifieke, in natuurlijke taal geschreven commando’s of instructies die aanvallers kunnen gebruiken om te proberen toegang te krijgen tot vertrouwelijke systemen en bronnen. ChatGPT moest in maart tijdelijk offline worden gehaald. Er was een beveiligingslek ontdekt waarbij de gespreksgeschiedenis van sommige gebruikers openbaar waren voor andere gebruikers. Om het bewustzijn over beveiligingsrisico’s in LLM-applicaties te vergroten, heeft de OWASP Foundation onlangs een lijst gepubliceerd met 10 kritieke en vaak voorkomende beveiligingsproblemen.

5. Datalek bij de AI-serviceprovider

Er bestaat altijd een risico dat een bedrijf dat AI-modellen ontwikkelt, zelf slachtoffer wordt van een inbreuk , waardoor hackers toegang kunnen krijgen tot trainingsdata die mogelijk gevoelige bedrijfsinformatie bevatten. Dit geldt ook voor datalekken, zoals het incident waarbij Google onbedoeld privéchat gesprekken van Bard onthulde in de zoekresultaten.

Wat zijn de vervolgstappen voor jouw bedrijf?

Als jouw bedrijf de voordelen van generatieve AI wil benutten, zijn er 6 stappen die je kunt ondernemen om de bijbehorende risico’s te beperken:

1: Gegevensbeveiliging

Bescherm gegevens door ze te versleutelen voordat ze worden gedeeld met generatieve AI-modellen, en overweeg anonimiserings technieken om de privacy van medewerkers te waarborgen. Het opschonen van data kan ook helpen. Hierdoor kun je gevoelige details uit trainingsdata verwijderen, voordat ze in het model worden ingevoerd.  voordat ze in het model worden ingevoerd.

2: Toegangscontrole

Implementeer sterke wachtwoorden, tweefactorauthenticatie (2FA) en zorg ervoor dat alleen geautoriseerde personen toegang hebben tot de generatieve AI-modellen en de achterliggende systemen.

3: Regelmatige beveiligingsaudits

Voer periodieke beveiligingsaudits uit om kwetsbaarheden in jouw IT-systemen te identificeren die van invloed kunnen zijn op de generatieve AI-modellen.

4: Incident response plan

Maak en oefen incident response plannen, zodat jouw bedrijf snel kan reageren op een inbreuk. Hierdoor blijven de risico’s beperkt en kun je deze eventueel snel herstellen.

5: Evaluatie van LLM-aanbieders

Zorg ervoor dat LLM-leveranciers voldoen aan de ‘best practices’ in de branche voor gegevensbeveiliging en privacy. ‘Best practices’ verwijst naar de gevestigde normen, richtlijnen en procedures die in de branche als de meest effectieve en veilige werkwijzen worden beschouwd als het gaat om gegevensbeveiliging en privacy. Vraag waar gebruikersgegevens worden verwerkt en opgeslagen en hoe ze worden gebruikt voor training. Hoe lang worden ze bewaard?

6: Beveiligingsrichtlijnen voor ontwikkelaars

Als jouw ontwikkelaars generatieve AI-tools gebruiken om codes te genereren, zorg er dan voor dat ze zich houden aan beveiligingsrichtlijnen, zoals beveiligingstest en peer reviews, om het risico op fouten in de productieomgeving te minimaliseren.

 

Het goede nieuws is dat je niet helemaal opnieuw hoeft te beginnen. De meeste van de bovenstaande tips zijn bekend.  De basisprincipes zouden bekend moeten zijn bij de meeste beveiligingsteams.