“AI Shrinkflation” vira realidade: Claude Opus 4.6 perde 67% do raciocínio e usuários acusam Anthropic de downgrade silencioso
De acordo com análise detalhada de logs do Claude Code (ferramenta oficial da empresa), o “thinking depth” — profundidade do raciocínio interno do modelo — caiu 67% desde 9 de fevereiro. Antes, o Opus lia arquivos em média 6,6 vezes antes de editar; agora são apenas 2,0 leituras. O volume de caracteres gerados no pensamento interno despencou de ~2.200 para ~720. Resultado prático: mais erros bobos, respostas mais rasas, maior necessidade de correções manuais e sensação geral de “o modelo ficou burro”.
A comunidade batizou o fenômeno de “AI shrinkflation” — mesmo preço da assinatura, pacote de inteligência menor.
A Anthropic manteve silêncio absoluto até o caso explodir no GitHub e no X. Só então Boris Cherny, criador do Claude Code e funcionário sênior da empresa, apareceu para explicar as mudanças: “Thinking agora é ativado por padrão em todo lugar” e que flags como ULTRATHINK “não fazem mais nada”. A empresa justifica as alterações como otimizações de latência e custo (parâmetro “effort” e adaptive thinking), mas não anunciou nada previamente.
O timing piora a percepção: em 31 de março, um erro de deploy vazou 512 mil linhas do código-fonte do Claude Code. Nele, devs descobriram um switch interno (USER_TYPE === 'ant') que dá aos funcionários da Anthropic verificações extras, testes automáticos e comportamento “full power” que usuários pagantes não recebem. O vazamento foi contido com DMCA, mas as capturas já circulam.
Paralelamente, a Anthropic finalizou o treinamento do Claude Mythos (codinome interno Capybara), o novo modelo “step change” que fica acima do Opus e promete ser “de longe o mais poderoso que já fizemos”. O Mythos já está em preview fechado e é descrito como extremamente caro e com riscos inéditos de cibersegurança.
A coincidência não passou despercebida: muitos usuários e analistas acreditam que a empresa está reduzindo o “thinking” dos modelos atuais para economizar compute e GPU enquanto treina o próximo monstro. A Anthropic não comentou a teoria.
Enquanto isso, no Reddit (r/ClaudeAI) e no X, o sentimento é unânime: “paguei o mesmo preço, recebi menos inteligência”. Alguns devs já migraram para alternativas ou voltaram a codar manualmente.
A era dos modelos “ilimitados e cada vez mais inteligentes” pode estar acabando. Bem-vindos à shrinkflation da IA.
