En una brecha de seguridad que se produjo el año pasado, un hacker se infiltró en los sistemas de mensajería interna de OpenAI y extrajo detalles sobre el diseño de las tecnologías de inteligencia artificial de la firma. El incidente se dio a conocer en un informe del New York Times, en el que se destacaba que la brecha implicaba el robo de información de un foro en línea utilizado por los empleados de OpenAI para discutir los últimos desarrollos de IA de la empresa.
Según el informe, el hacker no penetró en los sistemas utilizados para albergar y desarrollar las tecnologías de IA de OpenAI, incluido el popular ChatGPT. OpenAI, que cuenta con el apoyo de Microsoft Corp (NASDAQ:MSFT), aún no ha hecho ninguna declaración pública en respuesta al incidente.
La brecha se puso en conocimiento de los empleados de OpenAI durante una reunión general celebrada en abril del año pasado y también se comunicó al consejo de administración de la empresa. Los directivos de OpenAI decidieron no hacer pública la filtración, ya que no se había puesto en peligro ningún dato de clientes o socios.
Los ejecutivos no consideraron que la brecha constituyera una amenaza para la seguridad nacional, al estimar que el pirata informático era probablemente un particular sin conexiones con ningún gobierno extranjero. En consecuencia, la empresa de IA con sede en San Francisco no informó de la filtración a las fuerzas de seguridad federales.
Por otra parte, OpenAI anunció en mayo que había frustrado cinco operaciones encubiertas que intentaban utilizar sus modelos de IA para actividades engañosas en línea. Esta revelación ha contribuido a aumentar la preocupación por el posible uso indebido de las tecnologías de IA.
La brecha en OpenAI se produce en un momento en que el gobierno de EE.UU., bajo la administración Biden, está considerando nuevas medidas para proteger la tecnología de IA estadounidense de adversarios extranjeros, en particular China y Rusia. Estas medidas podrían incluir restricciones a modelos avanzados de IA como ChatGPT.
Además, en mayo, una coalición de 16 empresas de IA se comprometió en una reunión mundial a garantizar el desarrollo seguro de la tecnología de IA. Esta medida refleja la urgencia con la que la industria y los reguladores están abordando el rápido ritmo de innovación de la IA y sus riesgos asociados.
Reuters ha contribuido a este artículo.Este artículo fue traducido con la ayuda de inteligencia artificial. Para obtener más información, consulte nuestros Términos de Uso.