Hipocrisia da Anthropic exposta: usou livros piratas para treinar Claude e agora aciona DMCA contra vazamento de código
A empresa de inteligência artificial Anthropic, criadora do chatbot Claude, fechou em setembro de 2025 o maior acordo de direitos autorais da história ao pagar US$ 1,5 bilhão a autores e editoras. O motivo: a companhia baixou ilegalmente milhões de livros de sites piratas como Library Genesis (LibGen) e Pirate Library Mirror para treinar seus modelos de linguagem. O juiz federal William Alsup confirmou que a Anthropic sabia que o material era pirata e chegou a armazenar mais de 7 milhões de cópias digitais, configurando violação de copyright clara, apesar de ter defendido o uso de obras para treinamento de IA como “fair use” em outros aspectos do processo.
Durante anos, a Anthropic se posicionou como a “empresa ética” do setor de IA, criticando abertamente práticas predatórias de concorrentes e prometendo desenvolvimento responsável. Seus fundadores, incluindo ex-executivos da OpenAI, reforçavam publicamente a importância de respeitar criadores e direitos autorais. No entanto, documentos internos revelados no processo mostraram que executivos comemoraram o acesso rápido aos acervos piratas, priorizando velocidade e volume de dados sobre legalidade.
Agora, o cenário se inverteu de forma emblemática. Na última semana, um trecho do código-fonte do Claude Code vazou acidentalmente no GitHub. Em poucas horas, a Anthropic enviou notificações DMCA em massa, resultando na remoção de mais de 8 mil repositórios e forks. A ação rápida visava conter a disseminação do código proprietário, mas gerou revolta imediata na comunidade de desenvolvedores, que viu ironia no fato de a empresa correr para proteger sua propriedade intelectual após ter ignorado a dos autores.
O caso ilustra a hipocrisia clássica do setor: direitos autorais são “problema dos outros” quando servem ao treinamento de IA, mas viram sagrados quando a própria tecnologia é exposta. Enquanto a Anthropic pagou a conta bilionária pelos livros piratas e destruiu os bancos de dados ilegais como parte do acordo, o vazamento de seu código reacendeu o debate sobre padrões duplos. Críticos apontam que a postura “regras para mim, mas não para vocês” mina a credibilidade de quem se diz guardião ético da IA, especialmente em um momento em que o equilíbrio entre inovação e direitos de criadores está em xeque.

Comentários