Cumplimiento normativo

Lo que los empleados deben saber antes de chatear con ChatGPT

7 minutos de lectura

Los debates sobre las herramientas de IA se han convertido en los más destacados de los últimos meses. Debido a su capacidad para aumentar la productividad y ahorrar tiempo, muchos empleados ya las han adoptado en sus rutinas de trabajo diarias. Sin embargo, antes de aprovechar las ventajas de las innovadoras herramientas de IA, tus empleados deben saber cómo interactuar con ellas de forma segura, sin poner en peligro la seguridad de los datos de tu empresa.

Las herramientas de IA pueden ayudarnos a desarrollar ideas, resumir o reformular fragmentos de texto, o incluso crear una base para una estrategia empresarial o encontrar un error en un código. Sin embargo, al utilizar la IA debemos recordar que los datos que introducimos en las herramientas dejan de pertenecernos en cuanto pulsamos el botón de envío.

Una de las principales preocupaciones a la hora de utilizar grandes modelos lingüísticos (LLM), como ChatGPT, es compartir datos sensibles con grandes empresas internacionales. Estos modelos son texto en línea, lo que les permite interpretar y responder eficazmente a las consultas de los usuarios. Sin embargo, cada vez que interactuamos con un chatbot y le pedimos información o ayuda, podemos compartir inadvertidamente datos sobre nosotros o nuestra empresa.

Cuando escribimos una consulta para un chatbot, los datos introducidos se hacen públicos. Esto no significa que los chatbots utilicen inmediatamente esta información como base para responder a otros usuarios. Pero el proveedor de LLM o sus socios pueden tener acceso a estas consultas y podrían incorporarlas a futuras versiones de la tecnología.

OpenAI, la organización que está detrás de ChatGPT, introdujo la opción de desactivar el historial de chat, lo que evitará que los datos de los usuarios se utilicen para entrenar y mejorar los modelos de IA de OpenAI. De esta forma, los usuarios tienen más control sobre sus datos. Si los empleados de tu empresa desean utilizar herramientas como ChatGPT, desactivar el historial de chat debería ser su primer paso.

Pero incluso con el historial de chat desactivado, todos los datos de los avisos siguen almacenados en los servidores del chatbot. Al guardar todos los avisos en servidores externos, existe la amenaza potencial de acceso no autorizado por parte de piratas informáticos. Además, los errores técnicos pueden permitir ocasionalmente que personas no autorizadas accedan a datos pertenecientes a otros usuarios del chatbot.

Entonces, ¿cómo asegurarse de que los empleados de tu empresa utilizan plataformas como ChatGPT de forma segura? He aquí algunos errores que los empleados suelen cometer, y formas de evitarlos.

Utilizar datos de clientes como entrada

El primer error común que cometen los empleados al utilizar las LLM es compartir inadvertidamente información sensible sobre los clientes de su empresa. ¿Qué significa esto? Imagina, por ejemplo, a los médicos enviando los nombres y los historiales médicos de sus pacientes y pidiendo a la herramienta LLM que escriba cartas a las compañías de seguros de los pacientes. O que los vendedores carguen los datos de sus clientes desde sus sistemas CRM para que la herramienta elabore boletines informativos específicos.

Enseña a los empleados a anonimizar permanentemente sus consultas antes de introducirlas en los chatbots. Para proteger la privacidad de los clientes, anímales a revisar y redactar cuidadosamente los datos sensibles, como nombres, direcciones o números de cuenta. La mejor práctica es evitar el uso de información personal en primer lugar y basarse en preguntas o consultas generales.

Cargar documentos confidenciales en los chatbots

Los chatbots pueden ser herramientas valiosas para resumir rápidamente grandes volúmenes de datos y crear borradores, presentaciones o informes. Aun así, subir documentos a herramientas como ChatGPT puede significar poner en peligro los datos de la empresa o del cliente almacenados en ellos. Aunque puede resultar tentador copiar documentos y pedir a la herramienta que cree resúmenes o sugerencias para diapositivas de presentaciones, no es una forma de proteger los datos.

Esto se aplica a los documentos importantes, como las estrategias de desarrollo, pero también a los menos esenciales -como las notas de una reunión-, que pueden llevar a los empleados a descubrir el preciado know-how de tu empresa.

Para mitigar este riesgo, establece políticas estrictas para el manejo de documentos sensibles y limita el acceso a dichos registros con una política de "necesidad de saber". Los empleados deben revisar manualmente los documentos antes de solicitar un resumen o asistencia del chatbot. Esto garantiza que la información sensible, como nombres, información de contacto, cifras de ventas o flujo de caja, se elimine o se anonimice adecuadamente.

Exponer los datos de la empresa en los avisos

Imagina que estás intentando mejorar algunas de las prácticas y flujos de trabajo de tu empresa. Le pides a ChatGPT que te ayude con la gestión del tiempo o la estructura de tareas e introduces valiosos conocimientos y otros dato para ayudar al chatbot a desarrollar una solución. Al igual que introducir documentos confidenciales o datos de clientes en los chatbots, incluir datos confidenciales de la empresa en la solicitud es una práctica común, aunque potencialmente perjudicial, que puede conducir a un acceso no autorizado o a la filtración de información confidencial.

Samsung rechaza la "IA generativa", Amazon mantiene la cautela

A principios de 2023, un ingeniero de Samsung descubrió que se había filtrado un código fuente interno sensible que había subido a ChatGPT. Esto ha llevado a Samsung a prohibir las herramientas de "IA generativa" en la empresa. Amazon también se encontró con un problema similar. Al parecer, la empresa se encontró con algunas respuestas de ChatGPT que se parecían a datos internos de Amazon. En este caso, sin embargo, Amazon no prohibió las herramientas de IA, sino que advirtió a sus empleados de que las utilizaran de forma responsable.

 

Para abordar este problema, la anonimización inmediata debería ser una práctica esencial. Esto significa que nunca se deben introducir nombres, direcciones, datos financieros u otros datos personales en las solicitudes de chatbot. Si deseas facilitar a los empleados el uso de herramientas como ChatGPT de forma segura, crea mensajes estandarizados como plantillas que puedan ser utilizadas de forma segura por todos los empleados, si es necesario, como por ejemplo "Imagina que eres [puesto] en [empresa].Crea un mejor flujo de trabajo semanal para [puesto] centrado principalmente en [tarea]."

Las herramientas de IA no son sólo el futuro de nuestro trabajo; ya están presentes. Como los avances en el campo de la IA y, en concreto, del Machine learning avanzan día a día, las empresas necesitan inevitablemente seguir las tendencias y adaptarse a ellas. Desde el especialista en seguridad de datos hasta el puesto de informático generalista, ¿podrías asegurarte de que tus colegas saben utilizar estas tecnologías sin arriesgarse a una fuga de datos?