Les discussions autour des outils d’IA ont pris une place prédominante au cours des derniers mois. En raison de leur capacité à stimuler la productivité et faire gagner du temps, de nombreux collaborateurs les ont déjà adoptés dans leur routine de travail quotidienne. Cependant, avant de profiter des avantages des outils d’IA innovants, vos collaborateurs devraient savoir comment les utiliser pour ne pas mettre en péril la sécurité des données de votre entreprise.
Les outils d’IA peuvent nous aider à développer des idées, résumer ou reformuler des textes, voire créer la base d’une stratégie métier ou trouver un bug dans un programme informatique. Lorsque nous utilisons l’Intelligence Artificielle, nous devons toutefois ne pas oublier que les données que nous introduisons dans les outils cessent de nous appartenir dès que nous appuyons sur le bouton d’envoi.
L’une des principales préoccupations liées à l’utilisation des grands modèles linguistiques (LLM) tels que ChatGPT réside dans le partage de données sensibles avec de grandes entreprises internationales. Ces modèles sont des textes en ligne, ce qui leur permet d’interpréter et de répondre efficacement aux requêtes des utilisateurs. Mais chaque fois que nous interagissons avec un chatbot et que nous lui demandons des informations ou de l’aide, il se peut que nous partagions par inadvertance des données sur nous-mêmes ou sur notre entreprise.
Lorsque nous fournissons des instructions à un chatbot, les données saisies deviennent publiques. Cela ne signifie pas que les chatbots vont utiliser immédiatement ces informations comme base pour répondre à d’autres utilisateurs. Mais le fournisseur de LLM ou ses partenaires peuvent avoir accès à ces requêtes et les intégrer dans de futures versions de la technologie. OpenAI, l’organisation à l’origine de ChatGPT, a introduit la possibilité de désactiver l’historique des conversations, ce qui empêchera l’utilisation des données des utilisateurs pour former et améliorer les modèles d’IA d’OpenAI.
De cette manière, les utilisateurs ont un meilleur contrôle sur leurs données. Si les collaborateurs de votre entreprise souhaitent utiliser des outils tels que ChatGPT, la première chose à faire est de désactiver l’historique des conversations.
Mais même si l’historique est désactivé, toutes les requêtes restent stockées sur les serveurs du chatbot. En sauvegardant toutes les requêtes sur des serveurs externes, il existe un risque potentiel d’accès non autorisé par des pirates. Des bugs techniques peuvent également occasionnellement permettre à des personnes non autorisées d’accéder à des données appartenant à d’autres utilisateurs du chatbot.
Alors, comment s’assurer que les collaborateurs de votre entreprise utilisent des plateformes telles que ChatGPT en toute sécurité ? Voici quelques erreurs souvent commises par les employés et les moyens de les éviter.
1. Utiliser les données des clients comme entrants
La première erreur commise par les collaborateurs lorsqu’ils utilisent des LLM est de partager par inadvertance des informations sensibles sur les clients de leur entreprise. Comment ? Imaginez par exemple que des médecins soumettent les noms et les dossiers médicaux de leurs patients à un LLM en lui demandant de rédiger des courriers aux compagnies d’assurance des patients. Ou encore des spécialistes du marketing qui transmettent des données sur leurs clients à partir de leurs CRM pour demander à l’outil de compiler des newsletters ciblées.
Apprenez aux collaborateurs à anonymiser en permanence leurs requêtes avant de les saisir dans les chatbots. Pour protéger la confidentialité des clients, encouragez-les à examiner et expurger soigneusement les détails sensibles, tels que les noms, les adresses ou les numéros de compte. La meilleure pratique consiste à éviter d’utiliser des informations personnelles en premier lieu et se contenter de questions ou de requêtes générales.
2. Télécharger des documents confidentiels dans les chatbots
Les chatbots peuvent être des outils précieux pour résumer rapidement de grands volumes de données, créer des brouillons, des présentations ou des rapports. Cependant, la transmission de documents à des outils tels que ChatGPT peut mettre en danger les données de l’entreprise ou des clients qui y sont stockées. S’il peut être tentant de copier simplement des documents et de demander à l’outil de créer des résumés ou des suggestions de diapositives de présentation, ce n’est pas une manière de sécuriser les données.
Cela vaut pour les documents importants, tels que les stratégies de développement, mais également pour les documents moins essentiels, tels que les notes prises lors d’une réunion, qui peuvent conduire les collaborateurs à divulguer le savoir-faire précieux de leur entreprise.
Pour atténuer ce risque, il convient d’établir des politiques strictes de traitement des documents sensibles et limiter l’accès à ces documents en appliquant une politique du « besoin d’en connaître ». Les collaborateurs doivent examiner manuellement les documents avant de demander un résumé ou de l’aide à un chatbot, pour veiller à ce que les informations sensibles, telles que les noms, les coordonnées, les chiffres de vente ou les flux de trésorerie, soient supprimées ou anonymisées de manière appropriée.
3. Exposer des données de l’entreprise dans les requêtes
Imaginez que vous tentiez d’améliorer certaines pratiques et certains flux de travail de votre entreprise. Vous demandez à ChatGPT de vous aider à gérer votre temps ou structurer vos tâches, et vous saisissez votre savoir-faire et d’autres données dans une requête afin d’aider le chatbot à élaborer une solution. Tout comme la transmission de documents sensibles ou de données clients dans les chatbots, l’inclusion de données sensibles de l’entreprise dans une requête est une pratique courante, mais potentiellement dommageable, qui peut conduire à un accès non autorisé ou à une fuite d’informations confidentielles.
Samsung rejette l’« IA générative », Amazon reste prudent.
Au début de l’année 2023, un ingénieur de Samsung a découvert que du code source interne sensible qu’il avait transmis à ChatGPT a été divulgué. Cela a conduit Samsung à interdire les outils d’« IA générative » dans l’entreprise. Amazon a également rencontré un problème similaire. La société a découvert des réponses de ChatGPT qui ressemblaient à des données internes d’Amazon. Dans ce cas, cependant, Amazon n’a pas interdit les outils d’IA, mais a averti ses collaborateurs de les utiliser de manière responsable.
Pour résoudre ce problème, l’anonymisation devrait être une pratique essentielle. Cela signifie qu’aucun nom, adresse, données financières ou autres données personnelles ne devraient jamais être saisis dans des requêtes pour chatbots. Et si vous souhaitez faciliter l’utilisation d’outils tels que ChatGPT en toute sécurité pour les collaborateurs, créez des requêtes standardisées sous forme de modèles qui peuvent être utilisés par tous les collaborateurs au besoin, tels que « Imaginez que vous êtes au poste de [poste] chez [entreprise]. Créer un meilleur flux de travail hebdomadaire pour le poste de [poste], principalement axé sur [tâche]. »
Les outils d’IA ne sont pas seulement l’avenir de notre travail, ils sont déjà présents. Alors que les progrès dans le domaine de l’IA et, plus précisément, du machine learning progressent chaque jour, les entreprises doivent inévitablement suivre les tendances et s’y adapter. Veillez à ce que tous vos collègues sachent comment utiliser ces technologies sans risquer de fuite de données.