El uso de ChatGPT por parte de un trabajador de Samsung lleva a filtraciones de datos confidenciales

Untitled-design-3 (1).png

La división de semiconductores de Samsung confió en ChatGPT para ayudar a solucionar problemas en su código fuente. Sin embargo, mientras utilizaban el chatbot de IA, divulgaron accidentalmente información confidencial, como el código fuente de un nuevo programa y notas internas de reuniones sobre su hardware. Desafortunadamente, esto no fue un caso aislado, ya que se reportaron tres incidentes en un mes.

Para evitar futuras violaciones similares, Samsung está trabajando en el desarrollo de su propia herramienta de IA similar a ChatGPT que sea exclusivamente para uso interno de los empleados. Esto permitirá que los trabajadores de la fábrica reciban asistencia rápida al tiempo que se asegura la información confidencial de la empresa. Sin embargo, esta nueva herramienta solo procesará indicaciones que tengan un tamaño de 1024 bytes o menos.

El problema ocurrió porque ChatGPT está gestionado por una empresa externa que utiliza servidores externos. Por lo tanto, cuando Samsung introdujo su código, secuencias de prueba y contenido interno de reuniones en el programa, se filtraron datos. Samsung informó de inmediato a sus directivos y empleados sobre el riesgo de comprometer información confidencial. Hasta el 11 de marzo, Samsung no permitía que sus empleados utilizaran el chatbot.

Samsung no es la única empresa que lidia con este problema. Muchas empresas están limitando el uso de ChatGPT hasta que establezcan una política clara con respecto al uso de la inteligencia artificial generativa. Aunque ChatGPT ofrece la opción de exclusión para la recopilación de datos de los usuarios, cabe mencionar que el desarrollador del servicio aún puede acceder a la información proporcionada.

¿Qué es ChatGPT y cómo funciona?

ChatGPT es una aplicación de IA desarrollada por OpenAI que utiliza el aprendizaje profundo para producir texto similar al humano en respuesta a las indicaciones de los usuarios. Puede generar texto en diversos estilos y con diferentes propósitos, como escribir copias, responder preguntas, redactar correos electrónicos, mantener conversaciones, traducir lenguaje natural a código y explicar código en varios lenguajes de programación.

ChatGPT funciona prediciendo la siguiente palabra en un texto dado utilizando los patrones que ha aprendido a partir de una gran cantidad de datos durante su proceso de entrenamiento. Al analizar el contexto de la indicación y su aprendizaje previo, ChatGPT genera una respuesta que pretende ser lo más natural y coherente posible.

¿Qué medidas ha tomado Samsung para evitar futuras filtraciones?

Tras las filtraciones de datos causadas por ChatGPT, Samsung ha tomado varias medidas para evitar que vuelvan a ocurrir incidentes similares. En primer lugar, la compañía ha recomendado a sus empleados que tengan precaución al compartir datos con ChatGPT. También han implementado una restricción en la longitud de las preguntas enviadas al servicio, limitándolas a 1024 bytes.

Además, Samsung está desarrollando actualmente una herramienta de inteligencia artificial similar a ChatGPT, pero exclusivamente para uso interno de los empleados. Esto garantizará que los trabajadores de la fábrica reciban asistencia rápida mientras se asegura la información confidencial de la empresa. Hasta el desarrollo de esta herramienta, Samsung había advertido a sus empleados sobre los posibles riesgos asociados con el uso de ChatGPT. También han destacado que los datos ingresados en ChatGPT se transmiten y almacenan en servidores externos, lo que hace imposible para la empresa controlar los datos una vez que se entregan.

¿Cuáles fueron las consecuencias para los empleados que filtraron datos confidenciales?

Las consecuencias para los empleados de Samsung que filtraron datos confidenciales a ChatGPT no se han especificado explícitamente en la información disponible. Sin embargo, Samsung Electronics está tomando medidas para evitar futuras filtraciones de información sensible a través de ChatGPT, como imponer un límite de 1024 bytes en el tamaño de las preguntas enviadas. La empresa también ha advertido a sus empleados sobre los posibles riesgos de usar ChatGPT.

Además, Samsung Semiconductor está desarrollando su propia herramienta de IA para uso interno de los empleados, la cual estará limitada a procesar comandos de hasta 1024 bytes. Estas acciones indican que Samsung está tomando en serio la protección de su información confidencial y está implementando medidas para mitigar los riesgos asociados con el uso de ChatGPT.

¿Qué tipo de información confidencial se filtró?

¿Cuántas veces los empleados de Samsung filtraron información confidencial a ChatGPT?

Según los resultados de la búsqueda, empleados de Samsung filtraron información confidencial de la empresa a ChatGPT en al menos tres ocasiones.

Artículos relacionados

Ver más >>

¡Desbloquea el poder de la IA con HIX.AI!