Digitale maatschappij

Wat medewerkers moeten weten voordat ze ChatGPT gebruiken

6 minuten leestijd

door Romy Tump

Discussies over AI-tools komen tegenwoordig opvallend vaak voor. Dit komt doordat de tools de productiviteit kunnen verhogen en tijd kunnen besparen, hierdoor hebben veel medewerkers ze al opgenomen in hun dagelijkse werkroutines. Maar voordat er gebruik gemaakt kan worden van de voordelen van innovatieve AI-tools, moeten jouw medewerkers weten hoe ze er veilig mee kunnen werken, zonder de gegevens van jouw bedrijf in gevaar te brengen.

AI-tools kunnen helpen met het ontwikkelen van ideeën, stukken tekst samenvatten of herformuleren, fouten in een code vinden en zelfs een basis creëren voor een bedrijfsstrategie. Bij het gebruik van AI moeten we echter niet vergeten dat de gegevens die we in de tools invoeren niet meer van ons zijn zodra we op de verzendknop drukken.

Eén van de grootste zorgen bij het gebruik van grote taalmodellen (LLM's), zoals ChatGPT, is het delen van gevoelige gegevens met grote internationale bedrijven. Deze modellen zijn in staat om online tekst te interpreteren en effectief te reageren op vragen van gebruikers. Maar elke keer dat we interactie hebben met een chatbot voor informatie of hulp, kunnen we onbedoeld gegevens over onszelf of ons bedrijf delen.

Wanneer we een vraag stellen aan een chatbot, worden de ingevoerde gegevens openbaar. Dit betekent niet dat chatbots deze informatie onmiddellijk zouden gebruiken als basis voor antwoorden aan andere gebruikers. De LLM-provider of zijn partners hebben echter mogelijk toegang tot deze vragen en kunnen deze opnemen in toekomstige versies van de technologie.

OpenAI, de organisatie achter ChatGPT, introduceerde de optie om de chatgeschiedenis uit te schakelen, zodat gebruikersgegevens niet kunnen worden gebruikt om de AI-modellen van OpenAI te trainen en te verbeteren. Op die manier krijgen gebruikers meer controle over hun gegevens. Als de medewerkers in jouw bedrijf tools zoals ChatGPT willen gebruiken, zou het uitschakelen van de chatgeschiedenis hun eerste stap moeten zijn.

Maar zelfs als de chatgeschiedenis is uitgeschakeld, worden alle gegevens nog steeds opgeslagen op de servers van de chatbot. Door alle berichten op externe servers op te slaan, is er een potentiële dreiging van ongeautoriseerde toegang door hackers. Bovendien kunnen technische bugs er soms voor zorgen dat onbevoegden toegang krijgen tot gegevens van andere chatbotgebruikers.

3 mogelijke risico’s voor het gebruik van chatbots:

1. Klantgegevens gebruiken als invoer

Wat regelmatig voorkomt bij het gebruik van LLM's is het onbedoeld delen van gevoelige informatie over de klanten van hun bedrijf. Stel je bijvoorbeeld eens voor dat artsen de namen en medische gegevens van hun patiënten invoeren en de LLM-tool vragen om brieven te schrijven naar de verzekeringsmaatschappijen van de patiënten. Of marketeers die klantgegevens uploaden uit hun CRM-systemen en de tool vragen om gerichte nieuwsbrieven samen te stellen.

2. Vertrouwelijke documenten uploaden naar chatbots

Chatbots kunnen waardevolle hulpmiddelen zijn voor het snel samenvatten van grote hoeveelheden gegevens en het maken van concepten, presentaties of rapporten. Toch kan het uploaden van documenten naar tools zoals ChatGPT betekenen dat bedrijfs- of klantgegevens die erin zijn opgeslagen in gevaar worden gebracht. Hoewel het verleidelijk kan zijn om documenten gewoon te kopiëren en de tool te vragen samenvattingen te maken of suggesties te doen, is dit geen veilige manier om met gegevens om te gaan.

Dit geldt voor belangrijke documenten, zoals ontwikkelingsstrategieën, maar ook minder essentiële documenten - zoals notities van een vergadering - kunnen ertoe leiden dat medewerkers de waardevolle gegevens van hun bedrijf blootleggen. 

3. Bedrijfsgegevens blootleggen in meldingen

Stel je voor dat je probeert de werkwijzen en workflows van je bedrijf te verbeteren. Je vraagt ChatGPT om te helpen met tijdmanagement of taakstructuur en voert waardevolle kennis en andere gegevens in de vraag in om de chatbot te helpen bij het ontwikkelen van een oplossing. Net zoals het invoeren van gevoelige documenten of klantgegevens in chatbots, is het toevoegen van gevoelige bedrijfsgegevens in de vraag een veel voorkomende, maar potentieel schadelijke praktijk die kan leiden tot onbevoegde toegang of het lekken van vertrouwelijke informatie.

 

Samsung schrapt "generatieve AI", Amazon houdt het op voorzichtigheid.

Begin 2023 ontdekte een ingenieur van Samsung dat een gevoelige interne broncode die hij had geüpload naar ChatGPT was gelekt. Dit heeft ertoe geleid dat Samsung "generative AI" tools in het bedrijf heeft verboden. Ook Amazon kreeg met een soortgelijk probleem te maken. Het bedrijf kwam naar verluidt enkele ChatGPT-reacties tegen die leken op interne Amazon-gegevens. In dit geval verbood Amazon echter geen AI-tools, maar waarschuwde het zijn medewerkers om ze op verantwoorde wijze te gebruiken.

 


 

Hoe zorg je ervoor dat de medewerkers platforms zoals ChatGPT veilig gebruiken?

  • Leer medewerkers om hun vragen permanent te anonimiseren voordat ze deze invoeren in chatbots. Om de privacy van klanten te beschermen, moedig je hen aan om gevoelige gegevens, zoals namen, adressen of rekeningnummers, te controleren en zorgvuldig mee om te gaan. Het beste is om het gebruik van persoonlijke informatie in de eerste plaats te vermijden en te vertrouwen op algemene vragen of zoekopdrachten.

  • Ook kun je een strikt beleid opstellen voor het omgaan met gevoelige documenten en beperk je de toegang tot dergelijke documenten met een "need to know"-beleid. Medewerkers moeten de documenten handmatig bekijken voordat ze een samenvatting of hulp van de chatbot vragen.

  • Als je het gemakkelijker wilt maken voor medewerkers om tools zoals ChatGPT veilig te gebruiken, maak dan vooraf opgestelde vragen als sjablonen die veilig door alle medewerkers kunnen worden gebruikt, indien nodig, zoals "Stel je voor dat je [positie] bent in [bedrijf]. Creëer een betere wekelijkse workflow voor [functie] die voornamelijk gericht is op [taak]."

Deze tips zorgen ervoor dat gevoelige informatie, zoals namen, contactgegevens, verkoopcijfers of cashflow, wordt verwijderd of op de juiste manier wordt geanonimiseerd.

AI-tools zijn niet alleen de toekomst van ons werk; ze zijn nu al aanwezig. Aangezien de vooruitgang op het gebied van AI en, specifiek, Machine Learning elke dag vooruit gaat, is het onvermijdelijk dat bedrijven de trends moeten volgen en zich eraan moeten aanpassen. van de databeveiligingsspecialist, tot de IT-generalist: zorg ervoor dat je collega's weten hoe ze deze technologieën moeten gebruiken zonder een datalek te riskeren.