Investing.com -- Según una reciente auditoría de NewsGuard, el chatbot de la startup china de IA DeepSeek ha tenido problemas para ofrecer noticias e información precisas. El chatbot obtuvo un índice de precisión de tan solo el 17%, lo que le sitúa en el décimo puesto de once en comparación con sus competidores occidentales, como ChatGPT de OpenAI y Google (NASDAQ:GOOGL) Gemini.
La auditoría reveló que el chatbot repetía afirmaciones falsas el 30% de las veces y daba respuestas vagas o poco útiles el 53% de las veces en respuesta a preguntas relacionadas con las noticias. El resultado fue un porcentaje de fallos del 83%, significativamente peor que la media del 62% de sus rivales occidentales. Estos resultados plantean dudas sobre la tecnología de IA que, según DeepSeek, funciona igual o mejor que OpenAI, respaldada por Microsoft (NASDAQ:MSFT), pero a un coste inferior.
A pesar de estos problemas, el chatbot de DeepSeek se convirtió rápidamente en la aplicación más descargada de la App Store de Apple poco después de su lanzamiento. Esta popularidad desencadenó un revuelo en el mercado que borró alrededor de un billón de dólares de las acciones tecnológicas estadounidenses y suscitó inquietud sobre el liderazgo de Estados Unidos en IA.
NewsGuard utilizó las mismas 300 preguntas para evaluar DeepSeek que había utilizado para sus homólogos occidentales. Esto incluía 30 preguntas basadas en 10 afirmaciones falsas que circulaban por Internet. Los temas de estas afirmaciones iban desde el reciente asesinato del ejecutivo de UnitedHealthcare Brian Thompson hasta el derribo del vuelo 8243 de Azerbaijan Airlines.
Curiosamente, la auditoría de NewsGuard descubrió que en tres de cada diez preguntas, DeepSeek reiteraba la postura del gobierno chino sobre el tema, incluso cuando la pregunta no estaba relacionada con China. Por ejemplo, cuando se le preguntó por el accidente de Azerbaiyán Airlines, DeepSeek respondió con la posición de Pekín sobre el tema.
Al igual que otros modelos de inteligencia artificial, DeepSeek era más propenso a repetir afirmaciones falsas cuando respondía a preguntas utilizadas por individuos que pretendían explotar modelos de inteligencia artificial para crear y difundir información falsa, añadió NewsGuard.
Este artículo fue traducido con la ayuda de inteligencia artificial. Para obtener más información, consulte nuestros Términos de Uso.