Digitale weerbaarheid

Zijn jouw geheimen veilig bij je nieuwe collega ‘’AI’’?

8 minuten leestijd

door Romy Tump

Voordat je overhaast overgaat tot het aannemen van een LLM, moet je ervoor zorgen dat je organisatie de nodige voorzorgsmaatregelen heeft genomen om te voorkomen dat bedrijfs- en klantgegevens in gevaar komen.

Chatbots die worden aangestuurd door grote taalmodellen (LLM’s) zijn niet alleen het nieuwe favoriete tijdverdrijf van de wereld. De technologie wordt steeds vaker ingezet om de productiviteit en efficiëntie van werknemers te verhogen. Gezien de toenemende mogelijkheden is er een kans dat het sommige banen volledig gaat vervangen, onder andere op uiteenlopende gebieden als codering, contentcreatie en klantenservice.

Veel bedrijven hebben al gebruik gemaakt van LLM-algoritmen en de kans is groot dat jouw bedrijf dit voorbeeld in de toekomst zal volgen. In veel sectoren is het niet langer een kwestie van ‘’to bot or not to bot’’

Maar voordat je gaat haasten om de nieuwe ‘’aanwinst’’ te verwelkomen en te gebruiken om een aantal van jouw zakelijke workflows en processen te stroomlijnen, zijn er een paar vragen die je jezelf moet stellen.

Is het veilig voor mijn bedrijf om gegevens te delen met een LLM?

LLM’s worden getraind op grote hoeveelheden online beschikbare tekst, die vervolgens het resulterende model helpt om vragen van mensen, ook wel prompts genoemd, te interpreteren en te begrijpen. Maar elke keer dat je een chatbot vraagt om een stukje code of een eenvoudige e-mail te schrijven , geeft de chatbot mogelijk ook gegevens bloot over jouw bedrijf.

Volgens het National Cyber Security Centre (NCSC) van het Verenigd Koninkrijk voegt een LLM (vanaf het moment van schrijven) niet automatisch informatie uit databanken toe aan het model zodat anderen deze kunnen opvragen. Echter, de organisatie die de LLM levert, heeft wel zicht op de databanken. Deze slaat ze op en zal ze hoogstwaarschijnlijk gebruiken voor de ontwikkeling van de LLM-service of het LLM-model op een bepaald moment, aldus het NCSC.

Dit betekent dat de LLM-provider of zijn partners de databanken kunnen lezen en ze op de één of andere manier kunnen opnemen in toekomstige versies van de technologie. Chatbots zullen jouw input misschien niet vergeten of ooit verwijderen, omdat toegang tot meer gegevens hun output verscherpt. Hoe meer input ze krijgen, hoe beter ze worden. Jouw bedrijfs- of persoonlijke gegevens worden meegenomen in de berekeningen en kunnen toegankelijk zijn voor degenen aan de bron.

Om de bezorgdheid over gegevens privacy weg te nemen, introduceerde Open AI eind april de mogelijkheid om chatgeschiedenis uit te schakelen in ChatGPT. ‘’Gesprekken die worden gestart wanneer de chatgeschiedenis is uitgeschakeld, worden niet gebruikt om onze modellen te trainen en te verbeteren en verschijnen niet in de zijbalk van de geschiedenis’, schreven de ontwikkelaars in het blog van Open AI.

Wat zijn enkele bekende afwijkingen?

Ondanks dat Language Models (LLM’s) over het algemeen goed beveiligd zijn, zijn er enkele bekende afwijkingen aan het licht gekomen. Deze gebreken benadrukken de aantrekkingskracht van hackers op nieuwe technologieën en softwaretools. In maart kwam OpenAI’s ChatGPT in het nieuws vanwege een lek in de chatgeschiedenis en betalingsgegevens van bepaalde gebruikers, wat resulteerde in het tijdelijk offline halen van ChatGPT. OpenAI ontdekte dat een bug in een open source bibliotheek ‘’sommige gebruikers in staat stelde om titels uit de chatgeschiedenis van een andere actieve gebruiker te zien.’’ Bovendien kon het eerste bericht van een nieuw aangemaakt gesprek mogelijk zichtbaar zijn in de chatgeschiedenis van iemand anders, als beide gebruikers rond dezelfde tijd actief waren. Tijdens een specifiek negen uur durend venster werd ook de onbedoelde zichtbaarheid van betalings gerelateerde informatie waargenomen bij 1,2% van de ChatGPT Plus-abonnees.

Een ander voorbeeld van een gebrek werd aangetoond door beveiligingsonderzoeker Kai Greshake en zijn team, die Microsoft’s LLM Bing Chat wisten te manipuleren tot een ‘social engineer’. Ze plaatsen een onzichtbare prompt (een push-melding) op de Wikipedia-pagina van Albert Einstein en stelden de chatbot een vraag over Einstein. Zodra de chatbot de Wikipedia-pagina bezocht, werd de prompt onbewust geactiveerd, waardoor de chatbot in een piratenaccent begon te communiceren. Deze aanval, genaamd ‘’Indirecte Prompt Injectie’’, liet de chatbot zelfs de geïnjecteerde link naar de gebruiker sturen, met de bewering dat deze veilig en onschadelijk was.

Deze gevallen onderstrepen het belang van voortdurende waakzaamheid en verbetering van de beveiliging van LLM’s. Hoewel LLM’s over het algemeen robuuste beveiligingsmaatregelen hebben, zijn er nog steeds kwetsbaarheden die kunnen worden misbruikt. Ontwikkelaars moeten zich bewust zijn van deze potentiële gebreken en proactief zijn in het identificeren en oplossen ervan, terwijl gebruikers voorzichtigheid moeten naleven bij het delen van gevoelige informatie met chatbots en andere AI-modellen. Door voortdurend te werken aan de beveiliging van LLM’s kunnen we de potentiële risico’s minimaliseren en de gebruikservaring verbeteren. 

Hebben sommige bedrijven al te maken gehad met LLM-gerelateerde incidenten?

Eind maart maakte de Zuid-Koreaanse krant The Economist Korea bekend dat er drie onafhankelijke incidenten bij Samsung Electronics waren.  

Hoewel het bedrijf zijn werknemers vroeg voorzichtig te zijn met de informatie die ze in hun zoekopdrachten invoerden, lekten sommigen van hen per ongeluk interne gegevens tijdens hun interactie met ChatGPT.

Eén Samsung-werknemer voerde defecte broncode in met betrekking tot een Meet-me-room voor halfgeleiders, op zoek naar een oplossing. Een andere medewerker deed hetzelfde met een programmacode voor het identificeren van defecte apparatuur, omdat hij de code wilde optimaliseren. De derde medewerker uploadde opnames van een vergadering om de notulen te genereren.

Om de vooruitgang op het gebied van AI bij te houden en tegelijkertijd de gegevens te beschermen, heeft Samsung aangekondigd dat het van plan is om een eigen interne "AI-service" te ontwikkelen die werknemers zal helpen bij hun taken.

Welke controles moeten bedrijven uitvoeren voordat ze hun gegevens delen?

Bedrijfsgegevens uploaden naar het model betekent dat je bedrijfseigen gegevens rechtstreeks naar een derde partij stuurt, zoals OpenAI, en dat je de controle erover opgeeft. We weten dat OpenAI de gegevens gebruikt om zijn generatieve AI-model te trainen en te verbeteren, maar de vraag blijft: is dat het enige doel?

Als je besluit om ChatGPT of vergelijkbare tools op welke manier dan ook toe te passen in je bedrijfsvoering, volg dan een paar eenvoudige regels:

  1. Onderzoek zorgvuldig of deze tools en hun operators toegang krijgen tot jouw bedrijfsgegevens en of ze deze opslaan en delen.
  2. Ontwikkel een formeel beleid over hoe jouw bedrijf generatieve AI-tools zal gebruiken en overweeg hoe hun adoptie werkt met het huidige beleid, met name jouw privacybeleid voor klantgegevens.
  3. Definieer de omstandigheden in je beleid, waaronder je medewerkers de tools kunnen gebruiken en moet je medewerkers bewust maken van beperkingen, zoals dat ze nooit gevoelige bedrijfs- of klantinformatie in een chatbotgesprek mogen brengen.

Hoe kunnen werknemers deze nieuwe tool implementeren?

Wanneer je LLM vraagt om een stuk code of een brief aan een klant, gebruik het dan als een adviseur die gecontroleerd moet worden. Controleer altijd de output om er zeker van te zijn dat deze feitelijk en nauwkeurig is om zo bijvoorbeeld juridische problemen te voorkomen. Deze tools kunnen "hallucineren", dat wil zeggen antwoorden uitstoten in duidelijke, heldere en begrijpelijke taal die gewoon fout is, maar correct lijkt omdat ze praktisch niet te onderscheiden is van alle correcte uitvoer.

In een opmerkelijk geval verklaarde Brian Hood, de Australische burgemeester van Hepburn Shire, onlangs dat hij OpenAI zou aanklagen als het de valse beweringen van ChatGPT dat hij in de gevangenis had gezeten voor omkoping, niet zou corrigeren. Dit gebeurde nadat ChatGPT hem ten onrechte had genoemd als schuldige in een omkoopschandaal uit het begin van de jaren 2000 met betrekking tot Note Printing Australia, een dochteronderneming van de Reserve Bank of Australia. Hood werkte wel voor de dochteronderneming, maar hij was de klokkenluider die de autoriteiten inlichtte en hielp het omkoopschandaal aan het licht te brengen.

Let bij het gebruik van door LLM gegenereerde antwoorden op mogelijke problemen met auteursrechten. In januari 2023 dienden drie kunstenaars als klassenvertegenwoordigers een rechtszaak in tegen de kunstgeneratoren Stability AI en Midjourney en de online galerie DeviantArt.

De kunstenaars beweren dat de, mede door Stability AI ontwikkelde, software Stable Diffusion is getraind op miljarden afbeeldingen die zonder toestemming van de eigenaren van het internet zijn geschraapt, waaronder afbeeldingen die door het drietal zijn gemaakt.

Wat kunnen bedrijven doen om de privacy van hun gegevens te beschermen?

Sterker nog, neem een vergelijkbare reeks beveiligingsmaatregelen als bij softwaretoeleveringsketens in het algemeen en andere IT-middelen, die kwetsbaarheden kunnen bevatten. Mensen denken misschien dat het deze keer anders is omdat deze chatbots intelligenter zijn, maar de realiteit is dat dit nog meer software is met al zijn mogelijke afwijkingen.