Um grupo de autores está processando a startup de IA Anthropic. Eles são acusados de cometer “roubo em grande escala” ao treinar seu popular chatbot Claude em cópias piratas de livros protegidos por direitos autorais.
Embora ações judiciais semelhantes contra a concorrente OpenAI, criadora do ChatGPT, tenham se acumulado há mais de um ano, esta é a primeira ação judicial de autores dirigida contra a Anthropic e seu chatbot “Claude”.
A menor empresa com sede em São Francisco, fundada por ex-executivos da OpenAI, se apresentou como uma empresa mais responsável e focada na segurança, construindo modelos generativos de IA que podem redigir e-mails, resumir documentos e interagir naturalmente com as pessoas.
Mas a ação, movida na segunda-feira no tribunal federal de São Francisco, alega que as ações da Anthropic “zombaram de seus nobres objetivos” ao acessar arquivos cheios de conteúdo pirata para desenvolver seu produto de IA.
“Não é exagero dizer que o modelo da Antrópico busca lucrar com a exploração da expressão humana e da engenhosidade que está por trás de cada uma dessas obras”, diz o processo.
A Antthropic não respondeu imediatamente a um pedido de comentário na segunda-feira.
A ação foi movida por um trio de escritores – Andrea Bartz, Charles Graeber e Kirk Wallace Johnson – que buscam representar um grupo de autores de ficção e não-ficção em situação semelhante.
Esta é a primeira ação movida por autores de livros contra a Anthropic, mas a empresa também está se defendendo de uma ação movida por grandes editoras musicais que afirmam que Claude regurgita letras de músicas protegidas por direitos autorais.
O caso dos autores junta-se a um número crescente de processos movidos em São Francisco e Nova Iorque contra desenvolvedores de grandes modelos de linguagem de IA.
A OpenAI e sua parceira de negócios Microsoft já estão lutando contra uma série de casos de violação de direitos autorais liderados por nomes conhecidos como John Grisham, Jodi Picoult e o autor de Game of Thrones, George RR Martin; Há também uma série de ações judiciais movidas por meios de comunicação como The New York Times, Chicago Tribune e Mother Jones.
O que conecta todos os casos é a alegação de que as empresas de tecnologia usaram grandes quantidades de texto humano para treinar chatbots de IA para produzir passagens de texto semelhantes às humanas, sem solicitar a permissão dos autores ou compensá-los. As objeções legais vêm não apenas de autores, mas também de artistas visuais, gravadoras musicais e outros criativos que afirmam que os lucros da IA generativa se baseiam na apropriação indébita.
A Anthropic e outras empresas de tecnologia argumentam que o treinamento de modelos de IA se enquadra na doutrina de “uso justo” da lei dos EUA, que permite usos limitados de materiais protegidos por direitos autorais, como para fins de ensino e pesquisa ou conversão do trabalho protegido por direitos autorais em outra coisa.
No entanto, o processo contra a Anthropic acusa a empresa de usar um conjunto de dados chamado “The Pile”, que contém um tesouro de livros piratas. Também contesta a ideia de que os sistemas de IA aprendem da mesma forma que os humanos.
“As pessoas que aprendem com os livros compram cópias legítimas deles ou emprestam-nas às bibliotecas que os compram, proporcionando assim pelo menos algum nível de compensação aos autores e criadores”, diz o processo.
———
A Associated Press e a OpenAI têm um contrato de licença e tecnologia que dá à OpenAI acesso a uma parte dos arquivos de texto da AP.