Anthropic y el uso de libros para entrenar IA: Un fallo histórico que redefine los derechos de autor

En un mundo donde la inteligencia artificial (IA) avanza a pasos agigantados, los debates sobre los derechos de autor y el uso ético de datos están más vivos que nunca. Un reciente fallo judicial en Estados Unidos ha marcado un hito en esta discusión: Anthropic, una empresa de IA respaldada por gigantes como Amazon y Google, ha ganado un caso clave que valida el uso de libros adquiridos legalmente para entrenar modelos de IA, siempre que no se utilicen copias pirateadas.

Este triunfo no está exento de controversias, ya que la empresa enfrentará un juicio por el uso de millones de libros pirateados. Este caso no solo impacta a Anthropic, sino que podría redefinir las reglas del juego para toda la industria tecnológica.

Un fallo transformador para la IA

El 24 de junio de 2025, el juez federal William Alsup, del Tribunal del Distrito Norte de California, dictaminó que entrenar modelos de inteligencia artificial con libros comprados legalmente es un uso legítimo bajo la doctrina del “uso justo” (fair use) de la ley de derechos de autor estadounidense. Según el juez, este proceso es “transformador”, ya que no busca replicar o reemplazar las obras originales, sino utilizarlas para crear algo nuevo, como los modelos de lenguaje que impulsan chatbots como Claude, desarrollado por Anthropic.

Este fallo es una victoria significativa para las empresas de IA, que dependen de grandes volúmenes de datos para entrenar sus modelos. Alsup comparó el proceso con el aprendizaje humano: un escritor que lee libros para inspirarse no infringe derechos de autor, sino que crea algo diferente a partir de ese conocimiento. De manera similar, la IA utiliza los textos para generar respuestas y contenidos innovadores, no para reproducir las obras originales.

En un mundo donde la inteligencia artificial (IA) avanza a pasos agigantados, los debates sobre los derechos de autor y el uso ético de datos están más vivos que nunca. Un reciente fallo judicial en Estados Unidos ha marcado un hito en esta discusión: Anthropic, una empresa de IA respaldada por gigantes como Amazon y Google, ha ganado un caso clave que valida el uso de libros adquiridos legalmente para entrenar modelos de IA, siempre que no se utilicen copias pirateadas.

El trasfondo de la demanda

La controversia comenzó en agosto de 2024, cuando los escritores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson presentaron una demanda colectiva contra Anthropic. Alegaban que la empresa había utilizado sus obras sin permiso para entrenar a Claude, acusándola de un “robo a gran escala”. Los autores argumentaban que el uso no autorizado de sus libros violaba sus derechos y ponía en riesgo su mercado literario.

El caso no solo cuestionaba el entrenamiento de IA, sino también las prácticas de adquisición de datos. Anthropic, según documentos judiciales, inicialmente descargó millones de libros de sitios piratas como Books3, Library Genesis (LibGen) y Pirate Library Mirror (PiLiMi). Estas plataformas contienen copias no autorizadas de obras protegidas, y la empresa era consciente de su naturaleza ilegal. El propio CEO de Anthropic, Dario Amodei, admitió internamente que usar estos sitios evitaba el “trabajo legal, comercial y de gestión” necesario para obtener licencias legales.

La biblioteca pirata de Anthropic

Aunque el fallo validó el uso de libros adquiridos legalmente, el juez Alsup fue contundente al condenar el uso de copias pirateadas. Según el tribunal, Anthropic descargó al menos siete millones de libros de forma ilegal, almacenándolos en una “biblioteca central” con la intención de conservarlos “para siempre”. Esta práctica fue considerada una clara violación de los derechos de autor, ya que el almacenamiento de copias piratas no puede justificarse bajo la doctrina del uso justo.

El cofundador de Anthropic, Ben Mann, descargó en 2021 el conjunto de datos Books3, que incluye cerca de 196.000 libros pirateados, además de cinco millones de títulos de LibGen y otros dos millones de PiLiMi. Aunque la empresa argumentó que no todos estos libros fueron utilizados para entrenar a Claude, el juez determinó que su almacenamiento constituye una infracción. Como resultado, Anthropic enfrentará un juicio en diciembre de 2025 para determinar las posibles sanciones, que podrían ascender a miles de millones de dólares, con una multa mínima de 750 dólares por libro.

El cambio de estrategia de Anthropic

Tras las preocupaciones internas sobre la legalidad de sus prácticas, Anthropic cambió su enfoque. Contrató a Tom Turvey, exejecutivo de Google Books, para liderar un esfuerzo masivo de adquisición legal de libros. La empresa invirtió millones de dólares en comprar libros físicos, muchos de segunda mano, para digitalizarlos. Este proceso involucró arrancar las encuadernaciones, escanear las páginas y convertir los textos en archivos digitales aptos para entrenar modelos de IA. Según el juez, esta práctica, aunque inusual, se considera un uso legítimo siempre que los libros sean adquiridos legalmente y no se redistribuyan.

Este giro estratégico buscaba mitigar los riesgos legales, pero no exime a Anthropic de la responsabilidad por las descargas previas de material pirata. El juez Alsup señaló que comprar un libro después de haberlo descargado ilegalmente no absuelve a la empresa de la infracción inicial, aunque podría reducir el alcance de los daños en el juicio.

Implicaciones para la industria de la IA

El fallo tiene implicaciones profundas para la industria de la inteligencia artificial. Empresas como OpenAI, Meta y Microsoft enfrentan demandas similares por el uso de contenidos protegidos para entrenar sus modelos. La decisión de Alsup establece un precedente: el entrenamiento de IA con materiales adquiridos legalmente es permisible, pero el uso de copias piratas cruza una línea roja. Esto podría obligar a las empresas a revisar sus prácticas de recolección de datos y priorizar acuerdos legales con editores y autores.

Por otro lado, el fallo refuerza la idea de que la IA es una tecnología “transformadora” que no busca competir directamente con las obras originales. El juez Alsup destacó que la Ley de Derechos de Autor tiene como objetivo fomentar la creatividad y el progreso científico, no proteger a los autores de la competencia. Sin embargo, también advirtió que el uso de IA para generar contenido que sustituya directamente a las obras originales podría ser problemático en futuros casos.

El debate ético: ¿Innovación o explotación?

El caso de Anthropic ha reavivado el debate sobre la ética en el desarrollo de la IA. Los autores demandantes argumentan que las empresas tecnológicas están explotando su trabajo sin compensación, lo que podría dañar el mercado literario. Por su parte, las compañías de IA defienden que el entrenamiento de modelos es esencial para la innovación y que el uso justo les permite avanzar sin restricciones excesivas.

Organizaciones como Authors Alliance han señalado que el fallo es una victoria parcial para ambas partes. Por un lado, valida el uso de libros legales para entrenar IA; por otro, castiga el uso de material pirateado. Este equilibrio busca proteger los derechos de los creadores mientras permite el desarrollo tecnológico. Sin embargo, los autores aún podrían apelar la decisión sobre el uso justo, lo que mantendría la incertidumbre en el sector.

Comparaciones con otros casos

El caso de Anthropic no es un incidente aislado. En la misma semana, Meta Platforms ganó una demanda similar en San Francisco. El juez Vince Chhabria dictaminó que el uso de libros para entrenar el modelo de IA Llama fue “transformador” y, por lo tanto, legítimo. Sin embargo, advirtió que en otros casos, el uso de IA para generar contenido competitivo podría ser considerado ilegal.

Estos fallos contrastan con una demanda previa contra Anthropic por parte de editores musicales, como Concord Music Group y Universal Music Group, que acusaron a la empresa de usar letras de canciones protegidas. En ese caso, Anthropic tuvo que implementar medidas para evitar que Claude reprodujera contenido protegido, lo que demuestra que no todos los usos de datos son considerados justos.

El futuro de los derechos de autor en la era de la IA

El fallo de Anthropic marca un punto de inflexión, pero no resuelve todas las preguntas. ¿Cómo se equilibrará la innovación tecnológica con los derechos de los creadores? ¿Qué pasará con el contenido generado por IA que pueda competir con obras originales? Estas cuestiones seguirán siendo debatidas en los tribunales, especialmente en el próximo juicio contra Anthropic por el uso de libros piratas.

La industria de la IA enfrenta un panorama complejo. Las empresas deberán invertir en acuerdos legales para acceder a datos de entrenamiento, mientras que los creadores exigirán mayor transparencia y compensación. Además, el precedente establecido por este caso podría influir en regulaciones futuras, tanto en Estados Unidos como en otros países.

Un camino hacia la regulación

El caso de Anthropic destaca la necesidad de regulaciones claras sobre el uso de datos en la IA. Mientras que el fallo valida ciertas prácticas, también subraya la importancia de respetar los derechos de autor. Las empresas tecnológicas podrían optar por colaborar con editores y autores para licenciar contenidos, evitando así conflictos legales. Al mismo tiempo, los creadores podrían beneficiarse de nuevos modelos de compensación, como regalías por el uso de sus obras en el entrenamiento de IA.

En el horizonte, el juicio de diciembre será decisivo. Si Anthropic enfrenta multas significativas, podría sentar un precedente para disuadir a otras empresas de usar contenido pirateado. Por ahora, el fallo ofrece un respiro a la industria de la IA, pero también sirve como advertencia: la innovación debe ir de la mano con la ética y el respeto por la propiedad intelectual.

Un equilibrio delicado

El fallo a favor de Anthropic es un paso adelante para la inteligencia artificial, pero no una victoria absoluta. La validación del uso justo para libros adquiridos legalmente abre la puerta a un desarrollo más sostenible de la IA, pero el uso de contenido pirata sigue siendo un delito grave. Este caso refleja el delicado equilibrio entre innovación y derechos de autor, un tema que seguirá generando titulares en los próximos años.

A medida que la IA transforma nuestras vidas, casos como este nos recuerdan la importancia de establecer reglas claras. Los creadores merecen ser protegidos, pero la tecnología también necesita espacio para evolucionar. El desafío será encontrar un punto medio que beneficie a todos, desde los escritores hasta las empresas que están dando forma al futuro.

Comparte este artículo
Salir de la versión móvil