Más del 50% de resúmenes de noticias generadas con IA tienen fallos graves
¿Qué significa esto para el futuro de la información?
Un estudio realizado por la BBC ha revelado que los chatbots de inteligencia artificial, como ChatGPT de OpenAI, Gemini de Google, Copilot de Microsoft y Perplexity, presentan dificultades para resumir noticias con precisión.
La investigación encontró que más de la mitad de los resúmenes generados por estas herramientas contenían “errores significativos” o distorsiones de la información original.
Errores comunes en citas y datos clave
Como parte del estudio, la BBC solicitó a estos sistemas de IA que resumieran 100 artículos periodísticos de su propia autoría. Los resultados fueron revisados por periodistas, quienes detectaron que el 51% de las respuestas tenían problemas importantes.
Además, el 19% de las respuestas que citaban a la BBC incluían declaraciones, cifras o fechas incorrectas. Por otro lado, el 13% de las citas atribuidas a la BBC estaban alteradas o no aparecían en los artículos originales.
Ejemplos destacados de imprecisiones
El estudio incluyó varios ejemplos de errores notables. Por ejemplo, Gemini afirmó incorrectamente que el Servicio Nacional de Salud del Reino Unido (NHS) “desaconseja el vapeo y recomienda que los fumadores que desean dejar de fumar utilicen otros métodos”.
Sin embargo, la realidad es que el NHS recomienda el vapeo como una herramienta para dejar el tabaco. Otro caso fue el de ChatGPT, que en diciembre de 2024 identificó a Ismail Haniyeh como líder de Hamas, a pesar de que este había sido asesinado en julio del mismo año.
De todas las herramientas evaluadas, Gemini fue la que generó más preocupaciones, ya que el 46% de sus respuestas fueron marcadas como problemáticas en términos de precisión.
Llamado a la acción de la industria tecnológica
Este no es el primer caso en el que se cuestiona la precisión de los resúmenes generados por IA. El año pasado, la BBC señaló que los resúmenes de noticias impulsados por IA de Apple distorsionaban sus titulares.
Como respuesta, Apple suspendió temporalmente esta función para aplicaciones de noticias y entretenimiento, además de diferenciar más claramente las notificaciones generadas por IA de las estándar.
En respuesta al estudio, Deborah Turness, directora ejecutiva de BBC News, instó a las empresas tecnológicas a abordar estos problemas de precisión. “Vivimos tiempos difíciles, y ¿cuánto tiempo pasará antes de que un titular distorsionado por la IA cause un daño significativo en el mundo real?”, escribió Turness.
Nos gustaría que otras compañías tecnológicas escuchen nuestras preocupaciones, como lo hizo Apple. Es hora de trabajar juntos: la industria de las noticias, las empresas tecnológicas y, por supuesto, el gobierno también tiene un papel importante que desempeñar aquí.
Fuente: BBC