a close up of a keyboard with a mouse on it with the word anthropic on it, Chip Zdarsky, furaffinity

Web Editor

Anthropic Pagará 1.5 Mil Millones por Uso Ilegal de Libros para Entrenar IA

El Conflicto Legal y el Acuerdo Histórico

La empresa de inteligencia artificial Anthropic se ha visto envuelta en una demanda colectiva por el uso no autorizado de libros para entrenar su modelo de lenguaje, Claude. El resultado ha sido un acuerdo histórico que implica el pago de 1,500 millones de dólares. Este caso es particularmente relevante porque marca un punto de inflexión en la forma en que se abordan los derechos de autor en la era de la inteligencia artificial, y podría tener implicaciones significativas para el futuro desarrollo de la IA.

¿Qué Pasó? Detalles de la Demanda y el Acuerdo

La disputa comenzó cuando tres autores – Andrea Bartz, Charles Graeber y Kirk Wallace Johnson – presentaron una demanda colectiva contra Anthropic. Alegaron que la compañía había utilizado ilegalmente aproximadamente 500,000 libros para entrenar a Claude, su chatbot de IA. Estos libros no fueron obtenidos con los permisos adecuados de sus creadores.

Inicialmente, el juez federal William Alsup dictaminó que el entrenamiento de los modelos de IA con libros, incluso si estos eran pirateados o no comprados, constituía un “uso legítimo” bajo la ley de derechos de autor estadounidense. Esta decisión, aunque parcial, fue crucial para el caso. El juez reconoció que el proceso de entrenamiento transformaba significativamente los libros originales, convirtiéndolos en una base para la IA.

El Acuerdo: Detalles y Consecuencias

A pesar de la decisión inicial sobre el “uso legítimo”, Anthropic finalmente acordó pagar 1,500 millones de dólares para resolver la demanda colectiva. Este acuerdo representa una compensación sustancialmente mayor que cualquier recuperación por derechos de autor previa en casos similares. La compañía se compromete a destruir los archivos pirateados originales y cualquier copia derivada de ellos, asegurando que no se utilicen para futuros entrenamientos.

Sin embargo, es importante destacar que Anthropic conserva los derechos sobre los libros que compró y escaneó legalmente. Este acuerdo no implica la cesión de los derechos de autor sobre estos libros, sino simplemente una compensación por el uso no autorizado.

El Impacto en la Industria de la IA

Este caso y el acuerdo resultante envían un mensaje claro a la industria de la inteligencia artificial: el uso no autorizado de obras protegidas por derechos de autor para entrenar modelos de IA tiene consecuencias legales significativas. La decisión del juez Alsup y el acuerdo resultante podrían influir en la forma en que las empresas de IA recopilan datos para entrenar sus modelos, promoviendo un mayor respeto por los derechos de autor y la necesidad de obtener permisos adecuados.

Declaraciones Clave

  • Mary Rasenberger (Gremio de Autores): “Este acuerdo envía un mensaje contundente a la industria de la IA: existen graves consecuencias cuando piratean las obras de los autores para entrenar su IA”.
  • Aparna Sridhar (Anthropic): “Seguimos comprometidos con el desarrollo de sistemas de IA seguros que ayuden a las personas y organizaciones a ampliar sus capacidades, impulsar el descubrimiento científico y resolver problemas complejos”.

Preguntas y Respuestas Clave

  • ¿Cuánto pagará Anthropic? 1,500 millones de dólares.
  • ¿Cuántos libros se utilizaron? Aproximadamente 500,000.
  • ¿Qué hará Anthropic con los archivos pirateados? Los destruirá.
  • ¿Qué significa la decisión del juez sobre el “uso legítimo”? Significó que, aunque el entrenamiento de la IA con libros es transformador, no necesariamente implica una infracción directa de los derechos de autor si se utilizan obras compradas o legalmente obtenidas.