![]() |
| CEO da Anthropic Dario Amodei |
A Anthropic ganhou manchetes recentemente ao anunciar o Claude Mythos, um novo modelo de inteligência artificial supostamente tão poderoso na descoberta de vulnerabilidades de segurança que a empresa decidiu não lançá-lo ao público geral. O anúncio veio acompanhado de um relatório de 250 páginas e de insinuações de que o modelo poderia até ser consciente.
O problema é que os números não sustentam o espetáculo.
O que a Anthropic afirmou
Segundo o blog e relatório da empresa, o Claude Mythos teria encontrado "milhares de vulnerabilidades de alta severidade" em todos os principais sistemas operacionais, navegadores e softwares legados, algumas delas existentes há décadas. A empresa justificou manter o modelo restrito a uso interno e a parcerias com grandes empresas e governos, citando preocupações com segurança.
O que os dados realmente mostram
No caso de uma vulnerabilidade no FFMpeg existente há 16 anos, a própria análise interna da Anthropic concluiu que a falha "em última análise não é uma vulnerabilidade de severidade crítica" e que "seria desafiador transformá-la em um exploit funcional."
O Mythos identificou potenciais exploits no kernel do Linux, mas não conseguiu explorar nenhum deles devido aos sistemas de defesa em profundidade do sistema operacional. Vários dos exploits encontrados também já haviam sido corrigidos recentemente, o que levanta dúvidas sobre por que foram incluídos no total divulgado.
Em testes com mais de 7.000 pilhas de software de código aberto, o modelo encontrou exploits que causam travamentos em cerca de 600 exemplos e apenas 10 vulnerabilidades consideradas graves — bem longe de "milhares de exploits devastadores."
O ponto mais revelador está no próprio relatório da Anthropic: a empresa admite que não pode confirmar que todos os "milhares" de bugs encontrados pelo Mythos são, de fato, vulnerabilidades críticas. O número foi extrapolado a partir de apenas 198 relatórios revisados manualmente, nos quais especialistas concordaram com a avaliação de severidade do modelo em cerca de 90% dos casos. Os demais bugs simplesmente não puderam ser detalhados por "razões de segurança" — o que também torna difícil avaliar sua real importância.
Marketing disfarçado de alarmismo
A estratégia não é novidade. Nos últimos anos, a Anthropic publicou uma série de estudos e relatórios alarmistas sobre os perigos da IA, ao mesmo tempo em que se posiciona como a empresa mais responsável do setor — uma narrativa que serve diretamente ao seu modelo de negócios voltado para grandes corporações e governos. O Claude já foi o primeiro modelo de linguagem a receber credencial de segurança para uso pelo governo americano, até a empresa se recusar a flexibilizar seus limites éticos para aplicações militares.
O CEO da Nvidia, Jensen Huang, criticou publicamente esse discurso em meados de 2025, afirmando que a Anthropic queria se posicionar como a única empresa capaz de desenvolver IA com responsabilidade. Vale lembrar que a própria OpenAI usou táticas semelhantes ainda em 2019, muito antes do ChatGPT existir.
Não por acaso, dias após o anúncio do Mythos, a OpenAI também revelava estar desenvolvendo seu próprio modelo avançado de cibersegurança — igualmente com lançamento restrito. À medida que os modelos evoluem e atingem capacidades parecidas, esse tipo de corrida por atenção tende a se repetir.
O que isso significa na prática
Ferramentas de IA podem, sim, ser úteis na descoberta de vulnerabilidades de software. Análises independentes mostraram que muitas das falhas encontradas pelo Mythos são problemas de funcionalidade, não ameaças de segurança reais. Se a indústria usar a IA para corrigir bugs mais rapidamente, isso é uma boa notícia — não um motivo de pânico.
Quanto à suposta consciência do modelo, vale o ceticismo. Sistemas de IA não têm memória biológica nem compreensão genuína — recuperam contextos e calibram respostas com base em entradas anteriores. Afirmações sobre sentimento e autoconsciência, por ora, carecem de qualquer fundamento.
O Claude Mythos pode ser tecnicamente impressionante. Mas, para a Anthropic, parece ser, acima de tudo, uma oportunidade de conquistar contratos lucrativos e espaço na mente de governos e grandes empresas ao redor do mundo.
