😎 Rebajas de verano - Hasta un 50% de descuento en las selecciones de acciones de la IA de InvestingProQUIERO MI OFERTA

OpenAI pagará hasta USD $20.000 por encontrar errores en ChatGPT

Publicado 12.04.2023, 07:14 a.m
OpenAI pagará hasta USD $20.000 por encontrar errores en ChatGPT
AAPL
-
ETH/USD
-

Los desarrolladores de ChatGPT lanzaron un programa de recompensas por errores para sus productos de inteligencia artificial, aunque no incluye jailbreaking.

***

  • OpenAI lanza programa de recompensa por errores para sus sistemas de IA
  • Los desarrolladores de ChatGPT pagarán USD $20.000 por “descubrimientos excepcionales”
  • El programa excluye prácticas de ‘jailbreaking’ al chatbot de inteligencia artificial
¿Encontraste un error en ChatGPT? Si lo reportas, ahora podrías ganar algo de dinero.

OpenAI, la empresa responsable del desarrollo del popular chatbot de inteligencia artificial (IA), acaba de anunciar un programa de recompensas por errores que ofrecerá recompensas en efectivo a cambio de hallar e informar vulnerabilidades de seguridad en sus sistemas, incluido ChatGPT.

El programa de “Bug Bounty”, como se conoce en inglés, ofrecerá efectivo según la gravedad y el impacto de los problemas informados, pagando desde USD $200 por “hallazgos de baja gravedad“, hasta recompensas de USD $20.000 por “descubrimientos excepcionales”. Los informes se pueden enviar a través de la plataforma de ciberseguridad, Bugcrowd.

“Estamos invitando a la comunidad global de investigadores de seguridad, piratas informáticos éticos y entusiastas de la tecnología para que nos ayuden a identificar y abordar las vulnerabilidades en nuestros sistemas”, dijo OpenAI.

OpenAI lanza programa ‘Bug Bounty’ La compañía recompensará por reportar errores de software en su API (interfaz de programación de aplicaciones) y otros servicios relacionados, pero no aceptará que hagan jailbreak a ChatGPT, un término que hace referencia a generar código o texto malicioso con el objetivo de engañar al programa AI para que viole sus propias reglas.

El jailbreaking generalmente implica ingresar escenarios elaborados en el sistema que le permiten eludir sus propios filtros de seguridad, como explica The Verge. Estas prácticas pueden incluir forjar los límites del chatbot para “incitarlo” a generar respuestas que de otro modo estarían prohibidas, como discursos de odio, instrucciones para crear armas e incluso crear malware.

“Los problemas de seguridad del modelo no encajan bien dentro de un programa de recompensas por errores, ya que no son errores individuales y discretos que se pueden corregir directamente”, destacó sobre esto la compañía, reconociendo que abordar este tipo de problemas “a menudo implica una investigación sustancial y un enfoque más amplio“.

En cambio, el programa de recompensas de OpenAI se centra en las fallas relacionadas con la privacidad del usuario y la ciberseguridad en los dominios web y las API de la empresa. Los usuarios pueden informar problemas de seguridad del modelo generados por jailbreaking utilizando un formulario separado, agregó la firma.

El nuevo programa, que busca combatir los problemas de vulnerabilidad y seguridad en los productos de OpenAI, tiene, no obstante, una condición. La empresa dijo que los hallazgos sobre errores u otras vulnerabilidades deberán mantenerse confidenciales hasta que el equipo de seguridad de OpenAI autorice cualquier publicación.

Preocupaciones de seguridad Los proyectos de tecnología con frecuencia ofrecen programas de recompensas similares para proteger sus sistemas contra amenazas informáticas. Por ejemplo, Ethereum ofreció medio millón de dólares por encontrar vulnerabilidades en su actualización Shanghai, mientras que gigantes tecnológicos como Apple (NASDAQ:AAPL) pueden pagar hasta USD $2 millones por errores graves.

El lanzamiento de la iniciativa por parte de OpenAI se produce en medio de informes sobre los riesgos y las preocupaciones en torno a los modelos de inteligencia artificial, que han empezado a surgir de forma acelerada.

Hace unas semanas, los desarrolladores de ChatGPT desconectaron temporalmente su popular chatbot de IA después de hallar un error en una biblioteca de código abierto que permitía a algunos usuarios ver títulos del historial de chat de otros usuarios.

También el mes pasado, un hacker conocido como rez0 reveló en Twitter una serie de “complementos secretos” para la API de ChatGPT, complementos experimentales o aún no publicados para el chatbot de la empresa, como recuerda The Verge. La vulnerabilidad fue reparada un día después de que se divulgó, según notó el pirata informático.

Italia se convirtió en marzo en el primer país de occidente en prohibir ChatGPT alegando recopilación ilícita de datos de usuarios. Mientras tanto, y en medio del hype por la nueva moda tecnológica, un grupo expertos e influyentes ya han pedido que se suspenda el entrenamiento de poderosos sistemas de IA citando temores de una amenaza para la humanidad.

Artículo de Hannah Estefanía Pérez / DiarioBitcoin

Imagen de Unsplash

Leer más en Diario Bitcoin

Últimos comentarios

Instala nuestra app
Aviso legal: Las operaciones con instrumentos financieros o criptomonedas implican un elevado riesgo, incluyendo la pérdida parcial o total del capital invertido, y pueden no ser adecuadas para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectados por factores externos de tipo financiero, regulatorio o político. Operar sobre márgenes aumenta los riesgos financieros.
Antes de lanzarse a invertir en un instrumento financiero o criptomoneda, infórmese debidamente de los riesgos y costes asociados a este tipo operaciones en los mercados financieros. Fije unos objetivos de inversión adecuados a su nivel de experiencia y su apetito por el riesgo y, siempre que sea necesario, busque asesoramiento profesional.
Fusion Media quiere recordarle que la información contenida en este sitio web no se ofrece necesariamente ni en tiempo real ni de forma exacta. Los datos y precios de la web no siempre proceden de operadores de mercado o bolsas, por lo que los precios podrían diferir del precio real de cualquier mercado. Son precios orientativos que en ningún caso deben utilizarse con fines bursátiles. Ni Fusion Media ni ninguno de los proveedores de los datos de esta web asumen responsabilidad alguna por las pérdidas o resultados perniciosos de sus operaciones basados en su confianza en la información contenida en la web.
Queda prohibida la total reproducción, modificación, transmisión o distribución de los datos publicados en este sitio web sin la autorización previa por escrito de Fusion Media y/o del proveedor de los mismos. Todos los derechos de propiedad intelectual están reservados a los proveedores y/o bolsa responsable de dichos los datos.
Fusion Media puede recibir contraprestación económica de las empresas que se anuncian en la página según su interacción con éstas o con los anuncios que aquí se publican.
Este aviso legal está traducido de su texto original en inglés, versión que prevalecerá en caso de conflicto entre el texto original en inglés y su traducción al español.
© 2007-2024 - Fusion Media Ltd. Todos los Derechos Reservados.