Proteggersi è importante

Cosa devono sapere i dipendenti prima di chattare con ChatGPT

7 minuti di lettura

Negli ultimi mesi le discussioni sugli strumenti di intelligenza artificiale hanno assunto un ruolo di primo piano. Grazie alla loro capacità di aumentare la produttività e risparmiare tempo, molti dipendenti li hanno già adottati nella loro routine lavorativa quotidiana. Tuttavia, prima di sfruttare i vantaggi degli innovativi strumenti di IA, i dipendenti devono sapere come utilizzarli in modo sicuro, senza mettere a repentaglio la sicurezza dei dati aziendali.

Gli strumenti di IA possono aiutarci a sviluppare idee, riassumere o riformulare pezzi di testo, o persino creare una base per una strategia aziendale o trovare un bug in un codice. Quando utilizziamo l'IA, tuttavia, dobbiamo ricordare che i dati che inseriamo negli strumenti cessano di appartenerci non appena premiamo il pulsante di invio.

Una delle preoccupazioni principali quando si utilizzano modelli linguistici di grandi dimensioni (LLM), come ChatGPT, è la condivisione di dati sensibili con grandi aziende internazionali. Questi modelli sono testi online, che permettono di interpretare e rispondere efficacemente alle domande degli utenti. Tuttavia, ogni volta che interagiamo con un chatbot e chiediamo informazioni o assistenza, possiamo inavvertitamente condividere dati su di noi o sulla nostra azienda.

Quando scriviamo un messaggio per un chatbot, i dati inseriti diventano pubblici. Ciò non significa che i chatbot utilizzino immediatamente queste informazioni come base per rispondere ad altri utenti. Tuttavia, il fornitore di LLM o i suoi partner potrebbero avere accesso a queste richieste e potrebbero incorporarle nelle versioni future della tecnologia.

OpenAI, l'organizzazione che sta dietro a ChatGPT, ha introdotto la possibilità di disattivare la cronologia delle chat, impedendo così che i dati degli utenti vengano utilizzati per addestrare e migliorare i modelli di intelligenza artificiale di OpenAI. In questo modo, gli utenti hanno un maggiore controllo sui propri dati. Se i dipendenti della vostra azienda desiderano utilizzare strumenti come ChatGPT, la disattivazione della cronologia delle chat dovrebbe essere il loro primo passo.

Tuttavia, anche se la cronologia delle chat è disattivata, tutti i dati dei messaggi sono ancora memorizzati sui server del chatbot. Salvando tutti i prompt su server esterni, esiste lapotenziale minaccia di accesso non autorizzato da parte di hacker. Inoltre, i bug tecnici possono occasionalmente consentire a persone non autorizzate di accedere ai dati di altri utenti del chatbot.

Quindi, come potete assicurarvi che i dipendenti della vostra azienda utilizzino piattaforme come ChatGPT in modo sicuro? Ecco alcuni errori che i dipendenti commettono spesso e i modi per evitarli.

Utilizzare i dati dei clienti come input

Il primo errore comune che i dipendenti commettono quando utilizzano gli LLM è quello di condividere inavvertitamente informazioni sensibili sui clienti della loro azienda. Che cosa succede? Immaginate, ad esempio, che i medici inviino i nomi e le cartelle cliniche dei loro pazienti e chiedano allo strumento LLM di scrivere lettere alle compagnie assicurative dei pazienti. Oppure gli esperti di marketing che caricano i dati dei clienti dai loro sistemi CRM e chiedono allo strumento di compilare newsletter mirate.

Insegnate ai dipendenti a rendere permanentemente anonime le loro domande prima di inserirle nei chatbot. Per proteggere la privacy dei clienti, incoraggiateli a rivedere e a eliminare accuratamente i dati sensibili, come nomi, indirizzi o numeri di conto. La pratica migliore è quella di evitare di utilizzare informazioni personali in primo luogo e di affidarsi a domande o richieste generiche.

Caricare documenti riservati nei chatbot

I chatbot possono essere strumenti preziosi per riassumere rapidamente grandi volumi di dati e creare bozze, presentazioni o rapporti. Tuttavia, caricare documenti in strumenti come ChatGPT può significare mettere in pericolo i dati aziendali o dei clienti in essi memorizzati. Anche se può essere allettante copiare i documenti e chiedere allo strumento di creare riassunti o suggerimenti per le diapositive di presentazione, non è un modo sicuro di procedere.

Questo vale per i documenti importanti, come le strategie di sviluppo, ma anche per quelli meno essenziali, come gli appunti di una riunione, che possono portare i dipendenti a scoprire il know-how più prezioso della loro azienda.

Per ridurre questo rischio, è necessario stabilire politiche rigorose per la gestione dei documenti sensibili e limitare l'accesso a tali documenti con una politica di "necessità di sapere". I dipendenti devono esaminare manualmente i documenti prima di richiedere una sintesi o l'assistenza del chatbot. In questo modo si garantisce che le informazioni sensibili, come nomi, informazioni di contatto, cifre di vendita o flussi di cassa, vengano eliminate o rese anonime.

Esporre i dati dell'azienda nei prompt

Immaginate di voler migliorare alcune pratiche e flussi di lavoro della vostra azienda. Chiedete a ChatGPT di aiutarvi nella gestione del tempo o nella struttura dei compiti e inserite nel prompt il vostro know-how e altri dati preziosi per aiutare il chatbot a sviluppare una soluzione. Proprio come l'inserimento di documenti sensibili o di dati dei clienti nei chatbot, l'inclusione di dati aziendali sensibili nel prompt è una pratica comune, ma potenzialmente dannosa, che può portare all'accesso non autorizzato o alla fuga di informazioni riservate.

Samsung elimina l'"IA generativa", Amazon si mantiene prudente.

All'inizio del 2023, un ingegnere di Samsung ha scoperto che un codice sorgente interno sensibile che aveva caricato su ChatGPT era trapelato. Questo ha portato Samsung a vietare gli strumenti di "AI generativa" all'interno dell'azienda. Anche Amazon ha riscontrato un problema simile. L'azienda si è imbattuta in alcune risposte di ChatGPT che assomigliavano a dati interni di Amazon. In questo caso, tuttavia, Amazon non ha vietato gli strumenti di IA, ma ha avvertito i suoi dipendenti di usarli in modo responsabile.

 

Per affrontare questo problema, l'anonimizzazione immediata dovrebbe essere una pratica essenziale. Ciò significa che nessun nome, indirizzo, dati finanziari o altri dati personali devono essere inseriti nelle richieste dei chatbot. Se volete rendere più semplice per i dipendenti l'utilizzo sicuro di strumenti come ChatGPT, create dei prompt standardizzati come modelli che possano essere utilizzati in modo sicuro da tutti i dipendenti, se necessario, come ad esempio "Immagina di essere [posizione] in [azienda].Crea un flusso di lavoro settimanale migliore per [posizione] incentrato principalmente su [compito]"

Gli strumenti di IA non sono solo il futuro del nostro lavoro, ma sono già presenti. Poiché i progressi nel campo dell'IA e, nello specifico, dell'apprendimento automatico avanzano ogni giorno, le aziende devono inevitabilmente seguire le tendenze e adattarsi ad esse. Dallo specialista della sicurezza dei dati alla posizione di generalista dell'IT, potreste assicurarvi che i vostri colleghi sappiano come utilizzare queste tecnologie senza rischiare una fuga di dati?