Baniram o Claude como ameaça nacional numa sexta. No sábado, ele estava rodando nos bombardeios ao Irã.
O governo baniu o Claude como ameaça nacional. Horas depois, o Comando Central usava ele nos ataques ao Irã. Na App Store, virou o app mais baixado dos EUA.
O Claude da Anthropic foi classificado como ameaça à segurança nacional dos Estados Unidos na sexta-feira, 27 de fevereiro. No sábado, 28, o Comando Central americano usou o mesmo Claude pra analisar inteligência, identificar alvos e simular sequências de ataque nos bombardeios ao Irã.
Se você leu isso duas vezes pra ter certeza de que entendeu, eu também.
A gente cobriu a briga toda aqui: a Anthropic se recusou a dar acesso irrestrito ao Pentágono, Trump chamou a empresa de “esquerdistas malucos”, Hegseth classificou ela como risco à segurança nacional, e a OpenAI fechou contrato na mesma noite com exatamente as mesmas condições que a Anthropic pediu e foi punida por pedir. Resumo rápido pra quem tá chegando agora.
O que ninguém sabia até este fim de semana é que, enquanto o banimento tramitava, o Claude continuou trabalhando. Literalmente.
O Claude nos ataques
O modelo estava nos sistemas classificados das forças armadas desde 2025. A parceria com Palantir e AWS vinha de novembro de 2024. Contrato de US$200 milhões. O Claude já tinha sido usado na captura de Nicolás Maduro na Venezuela. E quando o Defense One perguntou a fontes internas se dava pra substituir o Claude rapidamente, a resposta foi que levaria meses.
O banimento veio com um detalhe que quase ninguém prestou atenção: “período de transição de seis meses” pro Departamento de Defesa. Traduzindo em português claro: a Anthropic é ameaça nacional, mas pode continuar operando por meio ano porque não tem alternativa pronta.
Nos ataques ao Irã, o Claude fez três coisas. Processou interceptações de sinais e imagens de satélite pra avaliar posições inimigas. Localizou e priorizou alvos de alto valor, incluindo complexos de liderança iraniana. E rodou simulações de combate pra prever resultados dos ataques e calcular danos colaterais.
Inteligência, seleção de alvos e simulação. Três funções críticas. O Pentágono jurava que qualquer modelo dava conta. O GPT da OpenAI foi aprovado dias depois. O Grok da xAI já estava nos sistemas classificados. Mas na hora H, o modelo que tava integrado, calibrado e testado em combate real era o Claude. Não dá pra trocar um modelo de IA numa infraestrutura militar classificada como quem troca de app no celular. É infraestrutura de guerra. Tem integração com dezenas de sistemas, calibração feita com dados reais de operações anteriores e meses de ajuste fino. O Defense One ouviu de fontes internas que a substituição completa levaria meses. A ideia de que você bane na sexta e muda na segunda é ficção.
Então ninguém no Comando Central parou pra pensar se era contraditório usar o Claude nos ataques. O período de transição de seis meses permitia. O uso era tecnicamente legal. A designação de ameaça era sobre o futuro. O presente era uma guerra. E guerras não esperam burocracia.
A App Store enlouqueceu
Aqui a história fica surreal.
No fim de janeiro, o Claude nem aparecia entre os 100 apps mais baixados dos Estados Unidos. Na quarta-feira depois do banimento, tava em sexto. Na quinta, quarto. No sábado - o mesmo sábado em que o Claude selecionava alvos no Irã - era o app mais baixado do país. Número 1. À frente do ChatGPT pela primeira vez na história.

Os números são absurdos: usuários gratuitos cresceram mais de 60% desde janeiro. Cadastros diários triplicaram desde novembro. Assinantes pagos mais que dobraram no ano. A Anthropic disse que bateu recorde de novos usuários todo dia da semana. Katy Perry postou um print da assinatura do Claude Pro com um coração vermelho e escreveu “done.” Gente cancelando ChatGPT e migrando pro Claude virou trend nas redes sociais.
E não foi só consumidor. Mais de 570 funcionários do Google e 93 da OpenAI assinaram uma carta aberta chamada “Não Seremos Divididos.” A carta acusava o Pentágono de jogar as empresas umas contra as outras pra enfraquecer as restrições éticas de cada uma. Metade assinou com nome. Metade no anonimato. Todos verificados como funcionários atuais.
O app em si não mudou nada. Não ficou mais rápido, não ganhou função nova, não baixou de preço. Baixar o Claude virou ato de protesto. Tipo deletar o Uber depois do Charlottesville, só que dessa vez o produto é um modelo de linguagem treinado com Constitutional AI - a estrutura de princípios que limita o que a IA pode e não pode fazer - e até semana passada a maioria das pessoas que baixaram não tinha ideia do que isso significava.
Não precisava saber. A história era boa o suficiente.
O que isso muda
Vou ser direto: a Anthropic se posicionou como a empresa ética da IA. Funcionou como marketing e como princípio ao mesmo tempo. Mas quando ética vira marca, qualquer compromisso futuro vai ser julgado com uma severidade que a OpenAI e a xAI nunca vão enfrentar. Porque essas duas nunca venderam essa promessa.
Sam Altman assinou com o Pentágono na mesma noite do banimento. Conseguiu as mesmas salvaguardas que Amodei pediu. Ninguém chamou a OpenAI de ameaça. A diferença não foi o que cada um defendeu. Foi quando.
A Anthropic vai contestar a designação na justiça. Com receita de US$14 bilhões por ano e avaliação de US$380 bilhões, não vai sumir por causa de um contrato militar. O problema não é a Anthropic. O problema é o precedente: se o governo americano pode classificar uma empresa doméstica como ameaça à segurança nacional porque ela recusou dar acesso irrestrito à sua tecnologia, toda empresa de IA acaba de receber o recado. Ter limites é risco. Colaborar sem perguntas é segurança.
Pra quem é brasileiro e acompanha isso de longe, o resumo prático é: se você usa o Claude pra trabalhar, escrever ou pesquisar, nada mudou. O banimento é só pro governo americano. O app continua funcionando normal. E considerando que a alternativa é o ChatGPT de uma OpenAI que tá cada vez mais colada no Pentágono, ou o Grok de um Elon Musk que tá literalmente dentro do governo, talvez essa seja a hora de prestar atenção em quem faz a IA que você usa todo dia.
Pra quem tava no Irã no sábado, o Claude também funcionou perfeitamente. Processou dados, encontrou padrões e entregou resultado. Só que os dados tinham coordenadas, e os padrões eram alvos.
Lucas Ferreira
Gamer desde o PS1, cético desde sempre
LEIA TAMBEM
O que acontece quando você fala "Hey Meta" e um estranho no Quênia assiste
A chefe de robótica da OpenAI pediu demissão por causa do Pentágono. E o "modo adulto" do ChatGPT foi adiado. De novo.