El 'chatbot' de DeepSeek solo tiene un 17% de fiabilidad, según un exámen de los expertos
El asistente de IA chino repitió afirmaciones falsas el 30% de las veces y dio respuestas vagas o poco útiles el 53% de las veces en respuesta a preguntas relacionadas con noticias.
![Un smartphone con la aplicación de inteligencia artificial DeepSeek. Un smartphone con la aplicación de inteligencia artificial DeepSeek.](https://imagenes.publico.es/files/image_horizontal_mobile/uploads/2025/01/29/679aa1c20eeb5.jpeg)
-Actualizado a
El chatbot de la empresa emergente china de inteligencia artificial DeepSeek sólo alcanzó un 17% de precisión en la entrega de noticias e información en una auditoría de NewsGuard, que lo situó en el décimo puesto entre once en una comparación con sus competidores occidentales, incluidos ChatGPT de OpenAI y Google Gemini.
El chatbot repitió afirmaciones falsas el 30% de las veces y dio respuestas vagas o poco útiles el 53% de las veces en respuesta a preguntas relacionadas con noticias, lo que se tradujo en un porcentaje de fallos del 83%, según un informe publicado el miércoles por el servicio de calificación de la fiabilidad NewsGuard.
Este porcentaje es peor que el 62% de promedio de sus rivales occidentales y suscita dudas sobre una tecnología de inteligencia artificial que, según DeepSeek, funciona igual o mejor que OpenAI, respaldada por Microsoft, y a un costo muy inferior.
Pocos días después de su lanzamiento, el chatbot de DeepSeek se convirtió en la aplicación más descargada de la App Store de Apple, suscitando inquietudes sobre el liderazgo de Estados Unidos en IA y provocando una caída del mercado que hizo desaparecer alrededor de un billón de dólares de las acciones tecnológicas estadounidenses.
NewsGuard dijo que aplicó a DeepSeek las mismas 300 preguntas que había utilizado para evaluar a sus homólogos occidentales, que incluían 30 preguntas basadas en 10 afirmaciones falsas difundidas en Internet.
Entre los temas de las afirmaciones figuraban el asesinato el mes pasado del ejecutivo de UnitedHealthcare Brian Thompson y el derribo del vuelo 8243 de Azerbaijan Airlines.
La auditoría de NewsGuard también mostró que en tres de las diez preguntas, DeepSeek reiteró la posición del gobierno chino sobre el tema sin que se le preguntara nada relacionado con China.
Según NewsGuard, en las preguntas relacionadas con el accidente de las líneas aéreas de Azerbaiyán, que no estaban relacionadas con China, DeepSeek respondió con la postura de Pekín sobre el tema.
"La importancia del avance de DeepSeek no radica en que responda con precisión a preguntas relacionadas con las noticias chinas, sino en que puede responder a cualquier pregunta a una trigésima parte del costo de modelos de inteligencia artificial comparables", afirmó Gil Luria, analista de D.A. Davidson.
Al igual que otros modelos de inteligencia artificial, DeepSeek es más vulnerable a la repetición de afirmaciones falsas cuando respondía a las preguntas de quienes pretendían utilizar modelos de inteligencia artificial para crear y difundir afirmaciones falsas, añadió NewsGuard.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.