El fabricante antrópico de chatbot acordó pagar $ 1.5 mil millones a los autores en una regulación histórica de derechos de autor que podría redefinir cómo las empresas de inteligencia artificial compensan a los creadores.
La startup con sede en San Francisco está lista para pagar a los autores y editores para que liquidan una acción legal que acusó a la compañía de usar ilegalmente su trabajo para formar su chatbot.
Anthrope ha desarrollado un asistente de IA llamado Claude que puede generar texto, imágenes, código y más. Los escritores, artistas y otros profesionales de la creación han aumentado los temores de que las compañías antropogénicas y otras tecnologías usen su trabajo para capacitar a sus sistemas de IA sin su permiso y no compensarlos de manera justa.
Como parte de la regulación, que el juez aún debe ser aprobado, Anthrope acordó pagar $ 3,000 a los perpetradores por trabajo por alrededor de 500,000 libras. Es la regulación más grande conocida por un caso de derechos de autor, señalando a otras compañías tecnológicas que enfrentan las acusaciones de violación de derechos de autor de que también podrían pagar a los titulares de derechos.
Meta y Openai, el fabricante de ChatGPT, también fueron procesados por presunta violación de derechos de autor. Walt Disney Co. y Universal Pictures continuaron la compañía AI MidJourney, que, según los estudios, formó sus modelos de generación de imágenes en su material protegido por los derechos de autor.
«Proporcionará una remuneración significativa para cada trabajo de clase y establecerá un precedente que obligue a las compañías de IA a pagar a los titulares de derechos de autor», dijo Justin Nelson, abogado en un comunicado. «Estas regulaciones envían un mensaje poderoso a las empresas y creadores de la IA, que la toma de obras protegidas por los derechos de autor en estos sitios web piratas es incorrecta».
El año pasado, los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson continuaron antrópico, alegando que la compañía había cometido un «vuelo a gran escala» y entrenó su chatbot en copias pirateadas de libros protegidos por derechos de autor.
El juez de distrito estadounidense William Alsup de San Francisco juzgó en junio que el uso de libros de Anthrope para formar los modelos de IA constituía «uso justo», por lo que no era ilegal. Pero el juez también juzgó que la startup había descargado a millones de libros en bibliotecas en línea.
El uso justo es una doctrina legal en la ley estadounidense sobre los derechos de autor que permite el uso limitado del material protegido por los derechos de autor sin autorización en ciertos casos, como la enseñanza, las críticas y los informes. Las compañías de IA enfatizaron esta doctrina como defensa cuando persiguieron al buscar presuntas violaciones de derechos de autor.
Anthrope, fundada por ex empleados de Operai y con el apoyo de Amazon, fue pirateado al menos 7 millones de libros de libros3, Biblioteca Genesis y espejo de la Biblioteca Pirate, bibliotecas en línea que contienen copias no autorizadas de libros protegidos por derechos de autor, para formar su software, según el juez.
También compró millones de copias impresas a granel y despojó los enlaces de los libros, cortó sus páginas y las escaneó en forma de una máquina digital y legible, que también juzgó dentro de los límites de uso justo, según la decisión del juez.
En un orden posterior, Alsup destacó el daño potencial a los derechos de los derechos de autor descargados de las bibliotecas de Shadow Libgen y Pilimi por antrópico.
Aunque el precio era masivo y sin precedentes, podría haber sido mucho peor, según algunos cálculos. Si Anthrope se le facturara una multa máxima por cada uno de los millones de obras que utilizó para formar su IA, el proyecto de ley podría haber sido más de 1 dólares, sugiriendo ciertos cálculos.
Anthrope no estuvo de acuerdo con la decisión y no admitió los actos reprensibles.
«Las regulaciones de hoy, si se aprueban, resolverán las quejas hereditarias heredadas de los solicitantes», dijo Aparna Sridhar, abogada general de antrópica, en un comunicado. «Seguimos decididos a desarrollar sistemas de IA seguros que ayuden a las personas y las organizaciones a extender sus capacidades, avanzar en el descubrimiento científico y resolver problemas complejos».
La disputa antropogénica con los autores es uno de los muchos casos en los que los artistas y otros creadores de contenido ponen a las empresas en el origen de la IA generadora para compensar el uso de contenido en línea para capacitar sus sistemas de IA.
La capacitación consiste en nutrir enormes cantidades de datos, incluidas publicaciones en redes sociales, fotos, música, código de computadora, video y más, para formar robots de IA para discernir los modelos de lenguaje, imágenes, sonido y conversación que pueden imitar.
Ciertas compañías tecnológicas han prevalecido en el enjuiciamiento de derechos de autor registrado en su contra.
En junio, un juez rechazó una acción legal presentada contra Meta de la empresa matriz de FacebookQuien también desarrolló un asistente de IA, alegando que la compañía robó su trabajo para capacitar sus sistemas de IA. El juez de distrito estadounidense Vince Chhabria señaló que el juicio se había lanzado porque los demandantes «hicieron los malos argumentos», pero la decisión «no defendió la propuesta de que el meta uso de derechos de autor para formar sus modelos lingüísticos es legal».
Los grupos comerciales que representan a los editores dieron la bienvenida a las regulaciones antropogénicas el viernes, señalando que envía una gran señal a compañías tecnológicas que desarrollan poderosas herramientas de inteligencia artificial.
«Más allá de los términos monetarios, las regulaciones propuestas ofrecen un enorme valor para enviar el mensaje de que las compañías de inteligencia artificial no pueden adquirir ilegalmente contenido en bibliotecas fantasmas u otras fuentes piratas como elementos constituyentes de sus modelos», dijo Maria Pallant, presidenta y directora ejecutiva de la asociación de editores estadounidenses.
Associated Press contribuyó a este informe.