OpenAI y Anthropic, dos destacadas startups de IA, han firmado acuerdos con el gobierno de Estados Unidos para profundizar en la investigación, las pruebas y la evaluación de sus modelos de inteligencia artificial. El Instituto de Seguridad de la Inteligencia Artificial de EE.UU. ha anunciado hoy estos acuerdos, que suponen un paso importante en la supervisión de las tecnologías de IA.
Estos acuerdos son especialmente notables, ya que se producen en medio de una mayor atención reguladora sobre el despliegue ético y seguro de la IA. California está a punto de votar una amplia legislación que regularía el desarrollo y el uso de la IA en el estado.
Los términos de los acuerdos conceden al U.S. AI Safety Institute acceso previo y posterior a la publicación de los principales modelos de IA de ambas empresas. El objetivo de esta colaboración es evaluar las capacidades y los riesgos potenciales de estos modelos de IA.
Jason Kwon, director de estrategia de OpenAI, conocida por crear ChatGPT, expresó la importancia del papel del instituto en el establecimiento del liderazgo estadounidense en el desarrollo de la IA. Kwon subrayó el potencial de estas colaboraciones para servir de base a los estándares mundiales en IA.
Anthropic, que cuenta con el apoyo de los gigantes tecnológicos Amazon (NASDAQ:AMZN) y Alphabet (NASDAQ:GOOGL), aún no se ha pronunciado sobre el acuerdo.
Elizabeth Kelly, directora del U.S. AI Safety Institute, destacó los acuerdos como un punto de partida crucial para guiar la progresión responsable de la tecnología de IA.
El Instituto de Seguridad de la IA de EE.UU., afiliado al Instituto Nacional de Normas y Tecnología (NIST) del Departamento de Comercio, también trabajará conjuntamente con el Instituto de Seguridad de la IA del Reino Unido. Sus esfuerzos conjuntos incluirán proporcionar a las empresas información sobre posibles mejoras de seguridad para sus modelos de IA.
Esta iniciativa del Instituto de Seguridad de la IA de EE.UU. se ajusta a una orden ejecutiva emitida el año pasado por el Presidente Joe Biden. La orden pretende abordar los riesgos conocidos y emergentes de la IA, reforzando el compromiso de la administración con la innovación segura de la IA.
Reuters ha contribuido a este artículo.Este artículo fue traducido con la ayuda de inteligencia artificial. Para obtener más información, consulte nuestros Términos de Uso.