🧐 ¡La actualización de octubre de ProPicks IA ya está disponible! Vea las acciones en la listaElija valores con IA

Microsoft revoluciona la IA con Phi-2: Un modelo compacto que supera gigantes

Publicado 13.12.2023, 10:21 a.m
Microsoft revoluciona la IA con Phi-2: Un modelo compacto que supera gigantes
MSFT
-
GOOGL
-

Microsoft (NASDAQ:MSFT) presentó la versión actualizada de su modelo de lenguaje pequeño, que demostró gran capacidad superando a otros modelos de IA como Llama2 de Meta e incluso a Gemini de Google (NASDAQ:GOOGL).

***

  • Microsoft Research introduce Phi-2, un modelo de lenguaje de 2.7 mil millones de parámetros
  • Phi-2 supera a modelos más grandes como Mistral y Llama2 en varias pruebas de referencia
  • Entrenado con “datos de calidad de libro de texto”, Phi-2 se enfoca en razonamiento y conocimiento
  • Phi-2 logra un alto rendimiento sin técnicas avanzadas de aprendizaje, destacando en la mitigación de sesgos y toxicidad
Desde que OpenAI presentó públicamente su chatbot de inteligencia artificial (IA) ChatGPT a finales de 2022, los avances en materia de IA no han parado, y continúan avanzando a una velocidad inquietante. Un ejemplo de esto es el último desarrollo de Microsoft, que acaba de revelar la nueva versión de su modelo de lenguaje pequeño (SML): Phi-2.

Microsoft Research, la rama de investigaciones del gigante de software, presentó el martes a Phi-2, un modelo de lenguaje con 2,7 mil millones de parámetros que, a pesar de su tamaño más pequeño, demuestra capacidades excepcionales y promete superar en rendimiento a modelos más grandes de IA.

Este modelo, entrenado con datos de alta calidad, se destaca por su eficiencia y capacidad de aprendizaje, logrando un alto rendimiento sin técnicas de aprendizaje avanzadas y mostrando mejor comportamiento en términos de sesgos y toxicidad. El avance se reveló por primera vez durante el evento Ignite 2023 de Microsoft, en el que el CEO Satya Nadella brindó algunos detalles.

Phi-2 supera a otros modelos de lenguajes pequeños existentes, pero es lo suficientemente pequeño como para ejecutarse en una computadora portátil o un dispositivo móvil.

A diferencia de GPT y otros modelos de lenguajes grandes (LLM), un SLM se entrena en un conjunto de datos limitado, utiliza menos parámetros pero también requiere menos cálculos para ejecutarse. Como resultado, el modelo que no puede generalizarse tanto como un LLM pero que puede ser muy bueno y eficiente en tareas específicas, como matemáticas y cálculos.

Phi-2 supera a grandes, incluida la IA de Google Phi-2 ha mostrado desempeño sobresaliente en pruebas de referencia complejas, evaluando sus habilidades de razonamiento, comprensión del lenguaje, matemáticas, codificación y sentido común. Este modelo es notable por superar el rendimiento de modelos mucho más grandes y establecidos, incluyendo Mistral de 7.000 millones de parámetros y Llama 2 de Meta de 13 mil millones parámetros, y en algunos casos, incluso supera a Gemini Nano de Google, que es el modelo más eficiente dentro de la recién anunciada serie Gemini.

Una característica interesante de Phi-2 es que, a diferencia de modelos de lenguaje más grandes, fue entrenado con lo que Microsoft denomina “datos de calidad de libro de texto“, enfocados específicamente en conocimiento, razonamiento y sentido común. Esto permite que Phi-2 aprenda más a partir de una menor cantidad de información. Además, Microsoft implementó técnicas que permiten la incorporación de conocimientos de modelos más pequeños.

Phi-2 ha logrado un rendimiento sólido sin utilizar técnicas como el aprendizaje reforzado basado en retroalimentación humana o la afinación instructiva, que a menudo se emplean para mejorar el comportamiento de los modelos de IA. A pesar de no utilizar estas técnicas, Phi-2 demostró un rendimiento superior en términos de mitigar sesgos y toxicidad en comparación con otros modelos de código abierto que sí los utilizan. Microsoft atribuye esto a su técnica de curación de datos a medida.

Phi-2 es el más reciente lanzamiento en una serie de lo que los investigadores denominan “modelos de lenguaje pequeños” o SML. El primero, Phi-1, se lanzó a principios de este año con 1,3 mil millones de parámetros, habiendo sido afinado para tareas básicas de codificación en Python. En septiembre, la empresa lanzó Phi-1.5, con 1,3 mil millones de parámetros, entrenado con nuevas fuentes de datos que incluían varios textos sintéticos generados con programación en lenguaje natural.

La eficiencia de Phi-2 lo convierte en una plataforma ideal para investigadores que deseen explorar áreas como la mejora de la seguridad de la IA, la interpretabilidad y el desarrollo ético de modelos de lenguaje.

Artículo de DiarioBitcoin, creado con ayuda de IA

Imagen de Microsoft

Leer más en Diario Bitcoin

Últimos comentarios

Instala nuestra app
Aviso legal: Las operaciones con instrumentos financieros o criptomonedas implican un elevado riesgo, incluyendo la pérdida parcial o total del capital invertido, y pueden no ser adecuadas para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectados por factores externos de tipo financiero, regulatorio o político. Operar sobre márgenes aumenta los riesgos financieros.
Antes de lanzarse a invertir en un instrumento financiero o criptomoneda, infórmese debidamente de los riesgos y costes asociados a este tipo operaciones en los mercados financieros. Fije unos objetivos de inversión adecuados a su nivel de experiencia y su apetito por el riesgo y, siempre que sea necesario, busque asesoramiento profesional.
Fusion Media quiere recordarle que la información contenida en este sitio web no se ofrece necesariamente ni en tiempo real ni de forma exacta. Los datos y precios de la web no siempre proceden de operadores de mercado o bolsas, por lo que los precios podrían diferir del precio real de cualquier mercado. Son precios orientativos que en ningún caso deben utilizarse con fines bursátiles. Ni Fusion Media ni ninguno de los proveedores de los datos de esta web asumen responsabilidad alguna por las pérdidas o resultados perniciosos de sus operaciones basados en su confianza en la información contenida en la web.
Queda prohibida la total reproducción, modificación, transmisión o distribución de los datos publicados en este sitio web sin la autorización previa por escrito de Fusion Media y/o del proveedor de los mismos. Todos los derechos de propiedad intelectual están reservados a los proveedores y/o bolsa responsable de dichos los datos.
Fusion Media puede recibir contraprestación económica de las empresas que se anuncian en la página según su interacción con éstas o con los anuncios que aquí se publican.
Este aviso legal está traducido de su texto original en inglés, versión que prevalecerá en caso de conflicto entre el texto original en inglés y su traducción al español.
© 2007-2024 - Fusion Media Ltd. Todos los Derechos Reservados.