Anthropic utilizó millones de libros para entrenar su IA, enfureciendo a los autores, pero un juez recientemente falló a favor de la empresa tecnológica, calificando el entrenamiento de “uso justo”.
La tecnología es “una de las más transformadoras que muchos de nosotros veremos en nuestras vidas”, escribió el juez de distrito de EE. UU. William Alsup el 23 de junio. Concluyó que los modelos de IA no hicieron obras idénticas a los estilos de los autores o libros específicos.
“El propósito y carácter de usar obras con derechos de autor para entrenar LLMs para generar texto nuevo fue esencialmente transformador”, escribió Alsup. “Como cualquier lector que aspira a ser escritor.”
Este es un caso significativo, el primero de su tipo. Ahora, los modelos de lenguaje grandes (LLMs) pueden entrenarse con cualquier obra con derechos de autor siempre que se pague por ella legalmente.
Anthropic está contento con la victoria, pero los tres autores que demandaron a la compañía —Andrea Bartz, Charles Graeber y Kirk Wallace Johnson— no lo están. Los autores habían afirmado que Anthropic ganaría miles de millones con millones de obras con derechos de autor.
Anthropic dijo a NPR en un comunicado: “Consistente con el propósito de los derechos de autor de permitir la creatividad y fomentar el progreso científico, los modelos de lenguaje grandes de Anthropic se entrenan con obras no para adelantarse y replicarlas o suplantarlas, sino para dar un giro radical y crear algo diferente.”
“Es probable que esta decisión de Anthropic sea citada por todos los creadores de modelos de AI para apoyar el argumento de que el uso justo se aplica al uso de conjuntos de datos masivos para entrenar modelos fundacionales”, dijo Daniel Barsky, abogado de propiedad intelectual en Holland & Knight.
Related: Amazon Introduces Reasoning AI Model—Do OpenAI and Anthropic Have a New Competitor?
Anthropic en realidad descargó ilegalmente 7 millones de libros con derechos de autor y posteriormente los compró, pero ya era demasiado tarde para rectificar su error. La compañía se enfrentará a un próximo juicio sobre el asunto en diciembre y podría pagar daños muy elevados, escribió The Hollywood Reporter.
La infracción de derechos de autor puede ser de hasta $150,000 por libro, y dado que Anthropic descargó 7 millones de libros ilegalmente, en el peor de los casos podría adeudar más de un billón de dólares.
El miércoles, los autores perdieron en otro caso, esta vez contra Meta. Más de una docena de autores demandaron a la compañía por infracción de derechos de autor después de que también utilizara libros pirateados para entrenar su AI.
“El tribunal dictaminó que las empresas de AI que ‘introducen obras protegidas por derechos de autor en sus modelos sin obtener permiso de los titulares de los derechos de autor o pagar por ellas generalmente están violando la ley”, dijo Boies Schiller Flexner LLP, abogados de los demandantes. “Sin embargo, a pesar del registro indiscutible del pirateo históricamente sin precedentes de obras con derechos de autor por parte de Meta, el tribunal falló a favor de Meta. Respetuosamente, no estamos de acuerdo con esa conclusión.”
Por ahora, parece que las empresas de AI pueden salirse con la suya al usar obras con derechos de autor para el entrenamiento de AI, pero existe la posibilidad de un cambio si un caso llega a la Corte Suprema.
Read Next: ‘Protect The Literary Landscape’: Authors Guild Files Suit Against OpenAI