Un tribunal federal de San Francisco, en Estados Unidos, dictaminó que la firma de inteligencia artificial (IA), Anthropic, no infringió la legislación estadounidense al emplear textos protegidos para entrenar su modelo de lenguaje Claude.
El juez William Alsup, en su dictamen, se basó en la doctrina de fair use (uso justo) al perseguir un fin “transformador” y promover el progreso científico.
Argumentó que el modelo Claude analizó fragmentos de los libros para ajustar pesos y parámetros, sin sustituir la obra original ni competir directamente con ella.
La resolución, divulgada por Reuters, es la primera decisión sustantiva que acepta la defensa de uso justo en el contexto de la IA generativa y sienta un precedente que podría influir en los litigios abiertos contra OpenAI, Meta, Microsoft y otras empresas tecnológicas.
La demanda colectiva fue presentada a finales de 2023 por las autoras Andrea Bartz, Charles Graeber y Kirk Wallace Johnson, quienes acusaron a Anthropic, respaldada por Amazon y Alphabet, de utilizar versiones no autorizadas de sus obras sin permiso ni remuneración.
Otros litigios similares en contra de empresas de IA son Authors Guild contra OpenAI y New York Times contra OpenAI/Microsoft.
En espera de pago de indemnización
El juez coincidió en que la copia y el almacenamiento de más de siete millones de libros en una “biblioteca central” suponen una infracción de derechos que no está amparada por el uso justo, por lo que fijó un juicio adicional para determinar la indemnización correspondiente.
La Ley de Derechos de Autor de Estados Unidos prevé hasta 150 mil dólares por obra en casos de infracción intencional.