Cuando se trata del uso de la IA Generativa por parte de los periodistas, los editores tienen tanto responsabilidades como derechos.

En un mundo en el que los medios de comunicación y otras instituciones se enfrentan a una falta de confianza y credibilidad, es importante que los medios de comunicación adopten principios éticos en el uso de la IA y que sean claros con la audiencia sobre cuándo los periodistas utilizan la IA generativa para recopilar y analizar datos.

Ya son muchas las organizaciones periodísticas que han adoptado códigos deontológicos de este tipo. 

Reporteros sin Fronteras constató que la mayoría de los códigos se centran en alguna combinación de estos temas: la supervisión humana de los contenidos publicados, la transparencia en relación con los contenidos sintéticos publicados, los límites establecidos al uso de IA generativa por parte de los periodistas, la necesidad de proteger la privacidad, la responsabilidad humana por cualquier contenido publicado y el riesgo de sesgo implícito en las herramientas de IA generativa.

Los editores también intentan averiguar qué contenidos son útiles y cómo adaptarlos a las nuevas indicaciones y a un mundo en el que se requieren datos fundamentados (es decir, basados en información que ha sido verificada) e información verificada actualizada.

Por ejemplo, el acuerdo de Axel Springer con OpenAI no se limita a la venta de los derechos de uso del archivo de Axel Springer, sino que exigirá que Axel Springer proporcione resúmenes, basados en el contenido de sus publicaciones, en respuesta a las indicaciones de ChatGPT. 

Pero aunque las organizaciones periodísticas están adoptando la IA Generativa como parte de la práctica de las redacciones y son muy conscientes de las consideraciones éticas y las obligaciones para con la audiencia, también desconfían del impacto económico de que grandes empresas se beneficien de sus contenidos.

Los periodistas temen que el tráfico caiga en picada a medida que la búsqueda generativa sustituya a la búsqueda de noticias por parte de la audiencia.

Los Modelos de Lenguaje Extenso (LLMs, siglas en inglés para Large Language Models) pueden sintetizar y analizar datos procedentes de un gran número de fuentes, lo que puede disuadir de consultar las fuentes originales.

A las actuales dificultades financieras de los medios de comunicación se suma el temor de que si las empresas de LLM no compensan a las fuentes originales, esto reducirá inevitablemente sus fuentes de ingresos, secando su financiación y, por tanto, la producción de información original y valiosa.

Pero las cosas son peores: existe una vieja expresión GIGO: basura dentro, basura fuera (garbage in, garbage out). La calidad de los LLM sólo puede ser tan buena como la calidad de los datos sobre los que se forman.

Sin embargo, las empresas de LLM no lo han asumido del todo: parece que no quieren compensar los conocimientos que utilizan, por lo que corren el riesgo de «matar a la gallina de los huevos de oro».

Y este problema es aún más grave si hay varios LLM, ya que entonces ninguno de ellos asumirá la responsabilidad de sus efectos colectivos en el ecosistema de la información.

Existe incluso el riesgo de que socaven el modelo de negocio de los motores de búsqueda, que a su vez han estado socavando el ecosistema de la información de calidad.

Los editores de noticias esperaban obtener atribuciones y enlaces a sus contenidos, pero esto parece improbable, ya que han surgido informes de que Perplexity y Open AI son incapaces de citar y enlazar sistemáticamente a sus fuentes. 

En mi nuevo informe La IA y el futuro del periodismo, publicado esta semana por la UNESCO, señalo que sin remuneración a los editores o creadores no habrá incentivos para producir información de calidad. Sin remuneración habrá menos diversidad. Si no se comparte el valor de la creación de contenidos, los grandes monopolios se beneficiarán.

En el informe también hago varias recomendaciones a los gobiernos, las empresas de medios de comunicación y los editores, así como a las organizaciones intergubernamentales, para mejorar la situación. Son cuestiones que deben debatirse ampliamente en un futuro próximo.

Un punto de controversia es si deben ser los editores o los creadores quienes reciban los pagos de las grandes empresas de IA. En Brasil, los músicos han pedido una parte de los ingresos residuales.

En Bélgica, las directivas europeas sobre derechos de autor exigen que se pague a los creadores, mientras que las negociaciones de los editores con Google no lo hacen. Los editores creen firmemente que son ellos quienes incurren en los costes y los riesgos y que, por tanto, los pagos deben ir a ellos.

Le Monde firmó un acuerdo con Open AI en 2024 y dará el 25% de los ingresos a sus periodistas, ya que son una parte interesada que contribuye en el medio. Los periodistas pueden aprender de otras industrias, como la música, donde tanto los artistas como sus editores han llegado a acuerdos.

Se pueden tomar decisiones sobre cómo valorar las noticias y cómo repartir el dinero entre editores y creadores.  Además, es necesario que los pagos sean justos para salvaguardar el futuro de las noticias y ayudar a preservar la calidad de los resultados de la IA Generativa.

La alternativa sería un mundo aún más contaminado por la desinformación, la confusión, la falta de confianza y la ausencia de responsabilidad.

La Dra. Anya Schiffrin es profesora titular de Práctica y directora de la especialización en tecnología de los medios y comunicaciones de la Escuela de Asuntos Internacionales y Públicos de la Universidad de Columbia.