Ícone do site Café Codificado

IA da Anthropic em Risco: Pentágono pode Cancelar Contrato de US$ 200 Milhões Após Divergências sobre Uso Militar

Risco Contratual e Debate sobre Limites no Uso Militar de IA

A gigante da inteligência artificial, Anthropic, encontra-se em um momento crucial em suas negociações com o Pentágono. A continuidade de um contrato avaliado em impressionantes US$ 200 milhões está em jogo, após divergências significativas surgirem a respeito do emprego de suas tecnologias em operações militares. O ponto de tensão se intensificou após a operação que levou à captura do líder venezuelano Nicolás Maduro, em 3 de janeiro.

Fontes próximas às discussões, ouvidas pelo Washington Post, revelam que autoridades do governo americano passaram a questionar a confiabilidade da Anthropic. A preocupação teria surgido depois que executivos da empresa expressaram receios sobre o uso específico da tecnologia no episódio em questão. O modelo Claude, um dos sistemas de IA desenvolvidos pela Anthropic, é peça fundamental em diversas aplicações do Pentágono, incluindo cibersegurança, otimização de armas autônomas e eficiência de processos internos.

O cerne do impasse reside na diferença de visões sobre a aplicação da inteligência artificial em cenários militares. Enquanto integrantes da equipe do secretário de Defesa, Pete Hegseth, defendem a liberdade irrestrita para o uso de ferramentas de IA em redes não classificadas, a Anthropic insiste que o emprego de suas tecnologias deve aderir estritamente à sua política de uso. A empresa afirma estar comprometida com a segurança nacional dos Estados Unidos, mas reitera a importância do uso responsável e ético.

Uso Militar de IA Gera Atrito e Questionamentos Éticos

A tensão ganhou contornos mais definidos com a revelação de que tecnologias da Palantir, juntamente com o modelo Claude da Anthropic, foram utilizadas na preparação da operação contra Maduro. Durante essa ação, dezenas de membros das forças de segurança venezuelanas e militares do país foram mortos. Após o ocorrido, um executivo da Anthropic teria questionado a Palantir sobre o emprego da ferramenta, um ato interpretado por autoridades americanas como uma possível desaprovação ao uso militar da tecnologia.

A Anthropic, no entanto, nega ter discutido operações específicas com o Departamento de Defesa ou ter manifestado preocupações fora de conversas técnicas rotineiras com parceiros do setor. A empresa mantém, em nota, que está em “conversas produtivas, de boa-fé” com o Departamento de Defesa para solucionar as questões pendentes.

Pentágono Considera Classificar Anthropic como “Risco à Cadeia de Suprimentos”

Diante da situação, o Pentágono sinaliza a possibilidade de classificar a Anthropic como um “risco à cadeia de suprimentos”. Essa designação, tradicionalmente aplicada a empresas de países como China e Rússia, poderia impor restrições significativas, obrigando fornecedores a certificarem que não utilizam modelos da companhia. A decisão, caso concretizada, representaria um golpe duro para a Anthropic no mercado de defesa.

Este debate ocorre em um contexto de aceleração do uso de IA pelo setor militar. Em janeiro de 2026, Hegseth publicou uma diretriz enfatizando que “a velocidade vence” em um cenário impulsionado pela inteligência artificial, incentivando a liberação de dados para o treinamento de sistemas. Pouco depois, Dario Amodei, cofundador e CEO da Anthropic, alertou em um ensaio sobre os perigos das armas autônomas e da vigilância em massa baseada em IA, destacando o risco de governos democráticos utilizarem tecnologias poderosas com pouca prestação de contas.

Expansão do Uso Militar de IA e Salvaguardas em Vigor

O uso militar de IA tem crescido exponencialmente. Em 2024, a Força Aérea dos EUA testou um caça F-16 equipado com IA em combates simulados na Edwards Air Force Base, mantendo sempre um piloto humano com a capacidade de desativar o sistema. Desde 2023, uma política governamental exige revisões e a implementação de salvaguardas para garantir que as decisões sobre o uso da força permaneçam sob controle humano, um ponto crucial na discussão sobre a ética da inteligência artificial em conflitos.

A situação da Anthropic com o Pentágono evidencia o complexo equilíbrio entre a busca por inovação tecnológica e a necessidade de garantir o uso ético e seguro dessas ferramentas, especialmente em um contexto de alta sensibilidade como o militar. O desfecho dessa negociação poderá definir novos parâmetros para a colaboração entre empresas de IA e o setor de defesa global.

Sair da versão mobile