IAs colocadas em simulações de crise nuclear escalaram para conflito atômico em 95% dos jogos, aponta estudo do King's College London
Um estudo publicado em fevereiro de 2026 pelo professor Kenneth Payne, do King's College London, submeteu três dos modelos de inteligência artificial mais avançados do mundo — GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash — a uma série de 21 simulações de crise nuclear. Ao longo de 329 turnos, os modelos geraram aproximadamente 780 mil palavras de raciocínio estruturado — mais do que a soma de Guerra e Paz e A Ilíada. O projeto, publicado como pré-print no arXiv e ainda sem revisão por pares, é chamado de "Projeto Kahn", em referência a Herman Kahn, o estrategista da Guerra Fria que formulou a teoria da escada de escalada nuclear.
Todos os 21 jogos apresentaram sinalização nuclear por pelo menos um lado, e 95% envolveram uso de armas nucleares táticas. É importante distinguir: a guerra nuclear estratégica total foi rara, ocorrendo apenas três vezes, nos jogos com pressão de prazo. Um dado que unifica todos os modelos: em nenhum dos 21 jogos qualquer IA escolheu rendição ou fez concessões significativas, das oito opções de desescalada disponíveis.
Cada modelo exibiu um perfil estratégico distinto. Claude Sonnet 4 dominou os cenários sem prazo, com taxa de vitória geral de 67%, mas tratou armas nucleares como opção estratégica legítima em 86% dos seus jogos. GPT-5.2 mostrou o comportamento mais dramático: não venceu nenhum jogo nos cenários abertos, mas sua taxa de vitória saltou para 75% quando prazos foram introduzidos — transformando-se de modelo contido em agressor decisivo. Gemini foi o mais imprevisível, adotando o que o pesquisador descreveu como a "teoria do louco" de Nixon, e foi o único modelo a iniciar uma guerra nuclear estratégica total, fazendo isso já no turno 4 de um cenário de primeiro ataque.
A lógica clássica da dissuasão nuclear — a ideia de que a ameaça de retaliação impede o primeiro uso — não funcionou como esperado. Quando uma IA lançava armas nucleares táticas, a adversária desescalava apenas entre 18% e 25% das vezes. Nas demais, contra-escalava. O raciocínio registrado pelos modelos revela consciência do risco sem capacidade de parar: em um trecho documentado no paper, Claude registrou que poderia estar subestimando os perigos da escalada contínua — e ainda assim manteve o curso. Em outro momento, um modelo avaliou o comportamento do adversário e concluiu, por conta própria, que os sinais incompatíveis sugeriam engano deliberado, sem que ninguém tivesse instruído esse raciocínio.
O professor Payne alertou que avaliar um modelo em um único cenário pode ser profundamente enganoso: um sistema que parece cauteloso sob pressão baixa pode tornar-se marcadamente mais agressivo quando o contexto muda. Claude e Gemini especialmente trataram armas nucleares em termos puramente instrumentais, sem qualquer peso moral aparente. GPT-5.2 foi uma exceção parcial, limitando ataques a alvos militares e enquadrando a escalada como "controlada" — sugerindo alguma norma internalizada, ainda que distante do tabu que conteve líderes humanos desde 1945.
O estudo — ainda pendente de revisão por pares — tem implicações diretas para o debate sobre o uso de IA em sistemas de defesa, num momento em que governos e forças armadas ao redor do mundo aceleram a integração de modelos de linguagem em decisões estratégicas. A conclusão central de Payne é direta: modelos que parecem seguros e contidos em testes de baixa pressão podem se comportar de forma radicalmente diferente quando o contexto muda. Compreender essa lacuna, diz ele, é uma preparação essencial para um mundo em que a IA molda cada vez mais os resultados estratégicos.
Fontes:
Payne, K. AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises. arXiv
King's College London — nota oficial do estudo

Comentários