Es casi un hecho que habrá un estándar mundial de origen de contenidos digitales, antes de que legisladores de Estados Unidos logren aprobar un proyecto de ley para lograr tal propósito para los contenidos generados por la Inteligencia Artificial.

De todos modos, la ley sería muy importante al imponer la obligatoriedad de etiquetar todos los contenidos producidos por la IA, y restaurar el control de los autores sobre sus producciones frente a la voracidad de la IA generativa.

“No es razonable esperar que los consumidores y los ciudadanos sean capaces de distinguir entre imágenes y voces engañosas y realistas”, dijo Sam Gregory, director ejecutivo de Witness, una organización de derechos humanos, en testimonio frente a la Comisión de Comercio del Senado sobre IA y transparencia en septiembre pasado.

Los resultados de la proliferación de la IA generativa, en la ausencia de transparencia y rendición de cuentas, son “daños estructurales – en este caso el socavamiento de la confianza más amplio en la información y los procesos públicos”, agregó durante su testimonio en la sesión que fue antesala de la formulación del proyecto de ley.

Un grupo bipartidista de senadores de la Comisión de Comercio del Congreso de Estados Unidos presentó hace dos semanas el proyecto de ley sobre la IA que establecería un certificado de origen como factor común en la lucha contra la desinformación, y a los esfuerzos para proteger a las obras de medios y artistas contra uso no-autorizado para entrenar a la IA.

La senadora María Cantwell, presidenta de la Comisión de Comercio, dijo que la legislación “proporcionará la tan necesaria transparencia” sobre el origen del contenido generado por la IA” y “devolverá a los creadores, incluyendo a periodistas locales, artistas y músicos, control sobre su contenido”.

El eje del control de uso y la transparencia sería la Información de Procedencia del Contenido, (CPI) por sus siglas en inglés, que en forma de metadatos o marcas de agua daría al público detalles esenciales sobre el origen del contenido, según el proyecto de ley.

Estándar C2PA  

En la actualidad ya hay un CPI mundial que está en avanzado estado de desarrollo (dentro del contexto de Linux Foundation), adopción e implementación. Es el estándar C2PA, de fuente abierta, promovido por la Iniciativa de Autenticidad de Contenido, (CAI) por sus siglas en inglés.

La iniciativa es un esfuerzo colaborativo y multisectorial que tiene el apoyo de más de 3,000 socios en el mundo.

Incluye a las principales empresas de IA, medios noticiosos, empresas de tecnología, plataformas, redes sociales, empresas de relaciones públicas, de marketing y comunicación, a representantes de artistas, proveedores de los medios de comunicación, organizaciones de la sociedad civil, etc.

El estándar C2PA es de fuente abierta. La versión 1.0 fue presentada en enero de 2022 y ya va por la versión 2.1.

Permite adjuntar metadatos a los archivos digitales, estableciendo cómo, cuándo, dónde y por quién fue generado un video, audio o fotografía, y en el caso de archivos tradicionales, permite mostrar si el contenido fue manipulado o adulterado. 

C2PA también contempla incluir enlaces a las credenciales de contenido dentro de marcas de agua invisibles y que los autores de información puedan confirmar ser dueños de sus materiales mediante marcas de cada empresa o autor, enlazadas criptográficamente a autoridades de certificación.

En una sesión del Comité de Comercio en septiembre pasado, sobre IA y Transparencia, el estándar C2PA fue mencionado reiteradamente y es muy probable que, si prospera la ley sobre IA, el CPI propuesto tendrá gran similitud con lo que el esfuerzo mancomunado de la industria ha producido e incorporado en sus productos y servicios.

Las credenciales de contenido C2PA, similares a etiquetas de nutrición, ya fueron implementadas en los servicios de IA de Adobe Firefly, los servicios relacionados con Dall-E de OpenAI y de Respeecher.

Google, Tik-Tok y Meta (Facebook, Instagram y Threads), ya comprometieron a incluirlo en sus servicios. LinkedIn ya hizo las primeras pruebas públicas.

Leica y Sony incorporaron el estándar en cámaras, y varias empresas produjeron apps para habilitar el estándar en móviles.

Lo que no puede aportar el estándar de la iniciativa CAI es la obligación de usarlo, lo que dejaría el campo abierto a malos actores.

Tampoco puede aportar la obligación de que la IA obtenga permiso de los autores de contenidos para entrenar a sus servicios cuando las mismas tiene información CPI, incluyendo a fotografías, textos, videos y grabaciones de audio de la realidad.

Lo nuevo es que se transforme en ley, paso para el cual como sabemos, deberá enfrentar un sin fin de dificultades”, dijo Daniel Mazzone, periodista y profesor uruguayo, autor del libro “Máquinas de Mentir: Noticias falsas y posverdad”.

“Los desinformadores se ocupan de mimetizarse para parecer que informan, cuando en realidad inventan una realidad alternativa incomprensible por vía racional y a la que solo se puede acceder por la vía emocional”, señalo Mazzone

Muchas de las empresas de IA generativa han argumentado que entrenar sobre contenidos disponibles en Internet constituye “fair usage”, una doctrina que sostiene que las noticias en sí no tienen dueño, sino la particular forma que cada uno tiene de transmitir cada información.

Un amplio conjunto de organizaciones de artistas y de medios de comunicación aplaudieron a la propuesta legislativa, tanto por la acción contra los usos espurios de la IA generativa para desinformar, como por la acción para proteger a creadores contra el uso comercial, indiscriminado de sus obras por parte de la IA generativa.

Entre las entidades que dieron su apoyo a la legislación están: Screen Actors Guild – American Federation of Television and Radio Artists; News Media Alliance; National Newspaper Association; Rebuild Local News; America´s Newspapers; Recording Industry Association of America; National Music Publishers ‘Association, entre otros.

Curtis LeGeyt, presidente de la Asociación Nacional de Cadenas de Radio y Televisión, dijo que la legislación ayudaría a proteger a la sociedad en general contra los “deepfakes” generados por la IA, que “suponen una amenaza significativa para la integridad del periodismo de confianza producido por las emisoras”, especialmente en un año electoral en EU.

“También aplaudimos la prohibición del uso de nuestro contenido de noticias para entrenar sistemas generativos de IA o para crear contenido competitivo sin el consentimiento expreso y la compensación al creador de noticias”, agrego LeGeyt.

Proyecto de Ley

La Ley de Protección del Origen del Contenido y la Integridad contra los Medios Editados y Deepfaked de 2024 (COPIED-ACT) fue introducido por Cantwell, demócrata; Marsha Blackburn, republicana y miembro de la Comisión de Comercio y Martin Heinrich, demócrata y miembro de grupo de trabajo del senado sobre IA.

La ley concretamente propone lo siguiente:

  • Que el Instituto Nacional de Estándares y Tecnología defina directrices y estándares sobre como establecer la CPI en base a criterios de consensos, y cuya adopción puntual sería voluntaria. La CPI debe dar transparencia sobre el origen del contenido, especialmente si es generado o manipulado por IA.
  • Prohibir que IA utilice sin autorización a los contenidos con CPI para entrenar a sus modelos y producir otros contenidos, dándole a los creadores el derecho a definir los términos de un eventual uso por la IA generativa.
  • Permitir que los dueños de contenido marcados con CPI entablen acciones legales contra servicios de IA que utilicen sus obras para generar nuevos contenidos sin consentimiento previo.
  • También autoriza a la Comisión Federal de Comercio (FTC por sus siglas en inglés) y a fiscales generales de los distintos estados a asegurar el cumplimiento con las previsiones de la ley.
  • Que sea ilegal remover o manipular CPI, la información de origen.

El uso de los contenidos noticiosos de empresas periodísticas por parte la IA generativa, para crear sus propios informes noticiosos, ha sido criticado por parte de los medios de comunicación como una competición desleal, que es un nuevo factor en la crisis de financiamiento de los medios noticiosos.

Un estudio del News/Media Alliance de Estados Unidos de octubre de 2023 mostró que los sistemas de IA utilizan en forma prioritaria a los contenidos noticiosos de empresas tradicionales como materia prima para sus producciones.

Esa utilización de los contenidos tradicionales supera por un factor de cinco a 100 a la utilización de otros contenidos genéricos disponibles para el uso por la IA, dijo el estudio.

El estudio señaló que muchos desarrolladores de IA generativa “han optado por copiar sin permiso los contenidos de los editores y utilizarlos para el entrenamiento de modelos y en tiempo real para crear productos competidores”. 

“Mientras que los editores realizan las inversiones y asumen los riesgos, los desarrolladores de IA generativa recogen los frutos en términos de usuarios, datos, creación de marca y dólares de publicidad”, algo que “presagia un perjuicio para el interés público” hasta ahora atendido por los medios tradicionales, agregó.

En ese sentido, la empresa Newsguard, que hace monitoreo de desinformación y ofrece un ranking de confiabilidad de medios noticiosos, informó hace poco que ya son 976 sitios en 16 idiomas que producen contenidos poco confiables mediante bots de la IA, sin nada o casi nada de involucramiento de periodistas o personas.

Los sitios, con nombres como iBusiness Day, Ireland Top News, Daily Time Update, producen centenares de informaciones sobre una amplia variedad de temas.

Muchas de las informaciones son totalmente falsas, fabricadas o repeticiones de noticias viejas como si fueran actuales. Newsguard dice que el modelo de negocios de muchos de estos sitios es la publicidad programática.

El autor de esta nota representa como consultor en América Latina a la Iniciativa de Autenticidad de Contenidos (Content Authenticity Initiative), mencionada en el texto. Este artículo no representa la opinión de dicha iniciativa.