Los miembros del personal que violen la nueva política podrían ser despedidos, advirtió la compañía en un memo. Samsung (KS:005930) no es la primera empresa que restringe el uso de ChatGPT
***
- Samsung envió memorando a sus trabajadores informando sobre nueva política sobre uso de ChatGPT
- La restricción se produce en respuesta a una filtración de información confidencial por parte de empleados
- No es la única empresa preocupada por los riesgos de privacidad y seguridad de ChatGPT
La gigante de tecnología con sede en Corea del Sur informó a sus empleados sobre la nueva política en un memorando a finales de abril, después de descubrir que algunos miembros del personal habían subido código confidencial a ChatGPT, según reportó Bloomberg. La empresa citó preocupaciones de seguridad y privacidad, aunque no reveló el tipo de información que se había filtrado.
En específico, la regla prohíbe a los trabajadores de Samsung utilizar servicios de IA generativa en sus redes internas y dispositivos como ordenadores, tablets y teléfonos propiedad de la empresa.
Samsung aclaró que se trata de una política temporal mientras revisa las “medidas de seguridad para crear un entorno seguro para el uso seguro de la IA generativa para mejorar la productividad y la eficiencia de los empleados”.
También sugirió a los empleados que tomaran precauciones al usar ChatGPT y otros productos similares fuera del trabajo y les aconsejó que no ingresen ninguna información personal o relacionada con la empresa en los servicios. La compañía advirtió que los que incumplan las nuevas políticas podrían ser despedidos, según el aviso, que fue citado en el informe.
Les pedimos que sigan con diligencia nuestras directrices de seguridad; de lo contrario, la información de la empresa podría verse comprometida y dar lugar a medidas disciplinarias, incluido el despido.Preocupaciones de seguridad El interés por la tecnología de inteligencia artificial se ha disparado en los últimos meses en medio de la creciente popularidad de ChatGPT y la competencia de las gigantes tecnológicas para lanzar sus propios productos similares.
Desarrollado por OpenAI, ChatGPT es un chatbot de IA generativa que está entrenado con grandes cantidades de datos y puede generar respuestas a las consultas de los usuarios. Si bien se ha vuelto popular como una nueva forma de entretenimiento, el sistema también se explora ampliamente como una herramienta de trabajo.
Por ejemplo, las personas pueden usar la aplicación para resumir informes o escribir respuestas a correos electrónicos. Sin embargo, ese tipo de usos podría implicar ingresar información confidencial al sistema a la que luego OpenAI podría tener acceso.
Los riesgos de privacidad asociados al uso de ChatGPT han estado en el centro de las discusiones desde que estalló la popularidad del chatbot este año. Los temores no son infundados, ya que si bien las conversaciones con la herramienta no son visibles para el equipo de soporte y no se utilizan para entrenar los modelos cuando se utiliza como API, es distinto para la interfaz web general.
En una sección de preguntas frecuentes, OpenAI admite que revisa las conversaciones que los usuarios tienen con ChatGPT para mejorar sus sistemas y asegurarse de que cumpla con sus políticas de seguridad, como recoge The Verge. Incluso conseja a los usuarios que no “compartan información confidencial” y señala que cualquier conversación puede usarse para entrenar versiones futuras.
Samsung no es la única Tiene sentido, en este aspecto, que Samsung se preocupe de que información sensible de la empresa pueda quedar almacenada en servidores externos, lo que dificultaría su recuperación y eliminación, y, en última instancia, podría acabar siendo revelados a otros usuarios.
De acuerdo con Bloomberg, la empresa coreana ya había realizado una encuesta el mes pasado sobre el uso de herramientas de IA a nivel interno y encontró que el 65% de los encuestados cree que tales servicios suponen un riesgo para la seguridad.
Samsung, que todavía no tiene su propio producto de IA, no es la única compañía que ha prohibido el uso de la tecnología floreciente. El banco estadounidense, JPMorgan (NYSE:JPM), aparentemente restringió el uso de ChatGPT entre el personal a inicios de año, y Amazon (NASDAQ:AMZN) también habría advertido a sus empleados que no carguen información confidencial, incluido código, a ese chatbot, como reporta CNBC.
Italia se convirtió el mes pasado en el primer país europeo en prohibir ChatGPT debido a las preocupaciones de privacidad, aunque el gobierno levantó recientemente el bloqueo después de que la startup respondiera a estos temores.
Artículo de Hannah Estefanía Pérez / DiarioBitcoin
Imagen de Unsplash