Una reciente investigación de la Unión Europea de Radiodifusión (UER) y la BBC alertó sobre fallas sistémicas en la forma en que la inteligencia artificial responde sobre noticias.
El estudio encontró que el 45% de las respuestas generadas por IA a preguntas sobre noticias y temas de actualidad contenían al menos un error significativo.
El análisis, que abarcó más de mil respuestas generadas por estas herramientas, reveló que el 31% de las respuestas presentaban problemas de atribución, ya fuera porque eran inexistentes, inexactas o engañosas, y el 20% contenían errores graves de precisión.
Por otro lado, un estudio paralelo reveló que un 42% del público dejaría de confiar en el medio original si una respuesta de IA basada en su contenido contiene errores. Esto implica un alto riesgo reputacional para los medios, incluso cuando el error es generado únicamente por la IA.
La evaluación realizada por la UER y la BBC muestra una mejora respecto a una investigación previa realizada por la BBC a inicios de este año, pues el porcentaje de respuestas con errores significativos bajó de 51% a 37%.
No obstante, las cifras siguen siendo preocupantes considerando el creciente uso de estas herramientas por parte del público para informarse.
“Muchas personas confían en que los asistentes de IA son precisos... El riesgo de reputación para las empresas de medios de comunicación es grande, incluso cuando el único asistente de IA tiene la culpa del error”, subraya el informe.
En el estudio participaron 22 organizaciones de medios públicosde 18 países y en 14 idiomas distintos, incluyendo a los principales asistentes de IA del mercado: ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) y Perplexity.
En el caso particular de Gemini, el 72% de sus respuestas contenían errores significativos en la atribución de fuentes, lo que lo convirtió en el peor evaluado del estudio.
Incluso los asistentes mejor calificados, como ChatGPT (36%), Copilot (37%) y Perplexity (30%), mostraron fallas en cerca de un tercio de sus respuestas.
Menos tráfico y más desinformación
La investigación también advierte sobre los efectos negativos del modelo de “respuesta directa”, que ofrecen estos asistentes, dado que en vez de redirigir al lector a medios confiables, las respuestas muchas veces evitan mencionar o enlazar a las fuentes originales, lo que está derivando en una disminución en el tráfico hacia los medios.
La UER y la BBC propusieron un plan de acción urgente para afrontar esta crisis, en el que:
- Los desarrolladores de IA deben priorizar la reducción de errores y ser transparentes. Deben publicar resultados desglosados por idioma y país.
- Los medios deben tener mayor control sobre el uso de su contenido por parte de las IA, exigir autorizaciones claras y atribuciones correctas con enlaces prominentes a sus contenidos.
- Los reguladores deben intervenir, si es necesario, para asegurar estándares de calidad, seguridad y visibilidad del contenido de medios públicos y confiables.
- La alfabetización mediática en torno a la IA debe fortalecerse, y las audiencias necesitan entender sus límites. Organizaciones como la BBC ya trabajan en ello, pero los desarrolladores también deben asumir su parte.








