Consiga un 40% de descuento
⚠ ¡Alerta de informes de resultados! ¿Qué valores están a punto de explotar?
Vea las acciones de nuestro radar ProPicks. Estas estrategias han ganado un 19.7% en lo que va de año.
Quiero la lista completa

Gemini, la IA de Google, causa polémica tras generar imágenes diversas pero inexactas 

Publicado 22.02.2024, 06:56 a.m
Actualizado 22.02.2024, 07:11 a.m
Gemini, la IA de Google, causa polémica tras generar imágenes diversas pero inexactas

Google (NASDAQ:GOOGL) se disculpó por “no dar en el blanco” después de que su herramienta de IA generase imágenes representando a los nazis como personas de color.

***

  • Gemini, el recién lanzado modelo de IA de Google, causa polémicas
  • La herramienta generó imágenes diversas en términos de raza y género, pero inexactas históricamente
  • Por ejemplo, representó a los nazis como personas de color, tergiversando el pasado
  • En otras noticias, Google también presentó su nuevo modelo liviano de IA basado en Gemini: Gemma

Google acaba de darse cuenta que el exceso de diversidad racial y de género también puede ser un problema para su recién lanzado modelo de inteligencia artificial (IA) avanzado.

La gigante de tecnología se apresuró a emitir una disculpa pública el miércoles por la noche después de que Gemini, su herramienta de IA antes llamada Bard, generase imágenes diversas pero inexactas históricamente.

Las críticas se extendieron después de que varios usuarios notaran que Gemini estaba proporcionando imágenes que representaban una variedad de géneros y etnias, incluso cuando hacerlo era históricamente inexacto.

Google admitió que su herramienta de IA “no dio en el blanco” —y literalmente así fue. Por ejemplo, cuando se le solicitó a Gemini representar a figuras blancas de la historia, como los padres fundadores de Estados Unidos o grupos de soldados nazi, la herramienta arrojó imágenes de mujeres, nativos americanos, personas de color y de otras etnias, según numerosos reportes.

“Somos conscientes de que Gemini ofrece inexactitudes en algunas representaciones históricas de generación de imágenes“, dijo la empresa en un comunicado publicado el miércoles en X, en respuesta a la polémica.

Gemini tiene un sesgo que borra parte de la historia El sesgo posiblemente fue el resultado de una corrección excesiva para evitar los riesgos de prejuicios raciones en el sistema de IA de Google, como señala The Verge, especialmente en medio de la agresiva competencia tecnológica.

La discriminación y los sesgos raciales y de género ha sido un problema de larga data para la tecnología de inteligencia artificial. Los generadores de imágenes de IA se entrenan con grandes corpus de imágenes y textos para producir la representación más cercana a un mensaje determinado. Sin embargo, a menudo esto significa que son propensos a ampliar los estereotipos.

OpenAI, un importante rival en el área y creador de ChatGPT, ya ha sido acusada de perpetuar estereotipos dañinos. En particular, recibió amplias críticas después de que su generador de imágenes de IA, Dall-E, generase primordialmente imágenes de hombres blancos cuando se le solicitó representaciones de un director ejecutivo o CEO.

Google, que está bajo presión para demostrar que no se está quedando atrás en el desarrollo de la IA, lanzó su última versión de Gemini la semana pasada. Al igual que otros de su tipo, como Dall-E, Gemini, genera imágenes a partir de solicitudes textuales.

“La generación de imágenes de IA de Gemini genera una amplia gama de personas. Y eso generalmente es algo bueno porque la gente de todo el mundo la usa. Pero aquí no da en el blanco“, explicó Jack Krawczyk, director senior de Gemini.

“Estamos trabajando para mejorar este tipo de representaciones de inmediato“, añadió en respuesta a las críticas.

Los intentos de Google para abordar los sesgos raciales y de género parecen haber generado un nuevo problema: su diversidad excesiva puede interpretarse como una tergiversación del pasado que borra un historial real de discriminación de raza y género.

Google lanza Gemma, su nuevo modelo liviano de IA En un desarrollo paralelo, Google también presentó Gemma, su nueva familia de modelos de lenguaje liviano de código abierto impulsado por Gemini y con el cual busca competir con las herramientas basadas en LLaMa y Mistral de Meta.

Mientras Gemini es un modelo de lenguaje grande (LLM) multimodal, comercial y de código cerrado que busca competir directamente con ChatGPT Plus de OpenAI, Gemma se presenta como una versión liviana más accesible.

Está disponible en dos versiones: Gemma 2B, un modelo liviano entrenado en dos mil millones de parámetros que está optimizado para la eficiencia y puede ejecutarse en un espectro más amplio de hardware, y Gemma 7B, un modelo más robusto entrenado en 7 mil millones de parámetros, que proporciona mejores resultados pero requiere más potencia informática.

“En Google, creemos en hacer que la IA sea útil para todos“, dijo Google en un anuncio oficial, enfatizando su visión de democratizar la tecnología de IA, como destacó Decrypt.

Artículo de Hannah Estefanía Pérez / DiarioBitcoin

Imagen de Unsplash

Leer más en Diario Bitcoin

Últimos comentarios

Instala nuestra app
Aviso legal: Las operaciones con instrumentos financieros o criptomonedas implican un elevado riesgo, incluyendo la pérdida parcial o total del capital invertido, y pueden no ser adecuadas para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectados por factores externos de tipo financiero, regulatorio o político. Operar sobre márgenes aumenta los riesgos financieros.
Antes de lanzarse a invertir en un instrumento financiero o criptomoneda, infórmese debidamente de los riesgos y costes asociados a este tipo operaciones en los mercados financieros. Fije unos objetivos de inversión adecuados a su nivel de experiencia y su apetito por el riesgo y, siempre que sea necesario, busque asesoramiento profesional.
Fusion Media quiere recordarle que la información contenida en este sitio web no se ofrece necesariamente ni en tiempo real ni de forma exacta. Los datos y precios de la web no siempre proceden de operadores de mercado o bolsas, por lo que los precios podrían diferir del precio real de cualquier mercado. Son precios orientativos que en ningún caso deben utilizarse con fines bursátiles. Ni Fusion Media ni ninguno de los proveedores de los datos de esta web asumen responsabilidad alguna por las pérdidas o resultados perniciosos de sus operaciones basados en su confianza en la información contenida en la web.
Queda prohibida la total reproducción, modificación, transmisión o distribución de los datos publicados en este sitio web sin la autorización previa por escrito de Fusion Media y/o del proveedor de los mismos. Todos los derechos de propiedad intelectual están reservados a los proveedores y/o bolsa responsable de dichos los datos.
Fusion Media puede recibir contraprestación económica de las empresas que se anuncian en la página según su interacción con éstas o con los anuncios que aquí se publican.
Este aviso legal está traducido de su texto original en inglés, versión que prevalecerá en caso de conflicto entre el texto original en inglés y su traducción al español.
© 2007-2024 - Fusion Media Ltd. Todos los Derechos Reservados.