Ícone do site Café Codificado

Pentágono Usa IA Antagônica ao Banimento de Trump no Irã: A Surpreendente Dependência Tecnológica em Meio à Crise

A Contradição Tecnológica no Campo de Batalha

No último sábado, em meio à Operação Epic Fury, uma vasta ofensiva aérea americana contra alvos no Irã, o Departamento de Defesa dos Estados Unidos se viu em uma situação paradoxal. Menos de 24 horas após o presidente Donald Trump ter classificado a empresa de inteligência artificial Anthropic como um “risco à segurança nacional” e ordenado o banimento de seus produtos, as forças armadas americanas estavam, segundo reportagens da Reuters e do Wall Street Journal, utilizando a tecnologia da mesma companhia.

A ferramenta em questão era o Claude, modelo de linguagem da Anthropic que compete diretamente com o ChatGPT. A ironia temporal é marcante: o uso intensivo da IA para coordenar ataques, incluindo o emprego de bombardeiros furtivos B-2 e mísseis Tomahawk, ocorreu poucas horas depois de Trump assinar uma diretiva exigindo que agências federais interrompessem o uso de programas da startup.

O “Cérebro” da Operação e o Ultimato do Pentágono

De acordo com o Wall Street Journal, o Comando Central dos EUA (Centcom) integrou o Claude em suas operações para realizar avaliações de inteligência cruciais, identificar alvos estratégicos e simular cenários de batalha complexos. Essa dependência do Claude, conforme detalhado pelo portal Axios, surgiu após uma recusa do CEO da Anthropic, Dario Amodei, em atender a um ultimato do Pentágono.

O Secretário de Defesa, Pete Hegseth, teria exigido “acesso irrestrito” aos modelos de IA da Anthropic, o que implicava a remoção de travas de segurança essenciais. A Anthropic, que possui um contrato de US$ 200 milhões com o governo desde 2025, estabeleceu uma linha ética clara, recusando-se a comprometer a segurança de sua tecnologia.

O Divórcio Complexo e a Resistência do Vale do Silício

Apesar de o governo ter rotulado a Anthropic como um “risco à cadeia de suprimentos”, uma designação usualmente reservada a adversários estrangeiros, a desconexão entre as partes não será imediata. O Wall Street Journal aponta que a IA da Anthropic está profundamente entrelaçada nas operações militares americanas, tendo sido fundamental até mesmo em operações como a captura do ex-presidente venezuelano Nicolás Maduro.

A transição para novas tecnologias de IA, como as da OpenAI e da xAI de Elon Musk, é um processo que especialistas alertam poder levar pelo menos seis meses, devido à complexidade da integração com provedores como Amazon e Palantir. Este caso, segundo a Axios, reflete um movimento maior de grandes corporações americanas, que começam a demonstrar uma “espinha dorsal” contra certas políticas administrativas, priorizando valores de mercado e diretrizes éticas.

Um Sinal de Vulnerabilidade Estratégica

A Operação Epic Fury, embora possa ter sido um sucesso militar no Irã, expôs uma vulnerabilidade estratégica significativa para os Estados Unidos: a dependência de uma inteligência artificial que o próprio governo, por decisões políticas ou limitações tecnológicas, não consegue controlar totalmente. A situação levanta questões importantes sobre a autonomia e a segurança no uso de tecnologias avançadas em operações militares.

Sair da versão mobile