Ícone do site Café Codificado

Pentágono Rotula Anthropic como “Risco”: IA Claude em Xeque e Impasse com Governo Americano Gera Tensão no Vale do Silício

Pentágono Sinaliza Anthropic como “Risco à Cadeia de Suprimentos” dos EUA

Em uma reviravolta que abala o setor de inteligência artificial, o Pentágono notificou formalmente a Anthropic, criadora do chatbot Claude, de que a empresa e seus produtos foram classificados como um risco à cadeia de suprimentos dos Estados Unidos. Essa medida, confirmada por autoridades de defesa à Bloomberg, surge em meio a negociações tensas entre a startup e o governo americano, indicando um possível fracasso na diplomacia entre o Vale do Silício e Washington.

A decisão representa um golpe significativo para a Anthropic, uma empresa atualmente avaliada em impressionantes US$ 380 bilhões e com uma receita projetada de US$ 20 bilhões para este ano. A startup tem sua receita fortemente atrelada à integração de seus sistemas em plataformas cruciais, como o Maven da Palantir, utilizado em operações militares. Uma classificação de risco pode forçar empresas privadas com contratos federais a banir o uso do Claude, impactando diretamente uma das principais verticais de crescimento da companhia.

A disputa, que atingiu níveis de hostilidade raros no setor tecnológico, gira em torno de cláusulas éticas sobre o uso do Claude para vigilância em massa e armas autônomas. O CEO da Anthropic, Dario Amodei, tem se recusado a flexibilizar esses termos, enquanto rivais como OpenAI e xAI teriam concordado com premissas de “qualquer uso legal”. Essa postura inflexível da Anthropic, segundo relatos, teria levado o Secretário de Defesa, Pete Hegseth, a rotular a empresa como uma ameaça à segurança nacional.

O Cerne da Disputa: Ética versus Uso Militar

O embate entre a Anthropic e o Pentágono se intensificou devido à recusa da startup em ceder em questões éticas fundamentais. O CEO Dario Amodei tem mantido uma linha dura contra o uso de sua tecnologia em vigilância em massa e no desenvolvimento de armas autônomas, princípios que sustentam a marca da empresa. Essa posição se contrapõe à demanda de alguns setores militares por maior flexibilidade no uso de IA.

Um memorando interno da Anthropic, divulgado pelo The Information, revela uma tentativa de última hora do governo americano. A proposta seria aceitar os termos éticos da startup, desde que uma frase específica sobre “análise de dados adquiridos em massa” fosse removida. No entanto, a aparente recusa de Amodei em acatar essa modificação teria sido o gatilho para a ação do Pentágono.

Impacto na Indústria e o Futuro da IA na Defesa

A classificação de “risco à cadeia de suprimentos” é uma ferramenta de pressão extrema, usualmente reservada para adversários geopolíticos. Sua aplicação a uma empresa de tecnologia de ponta como a Anthropic cria um precedente preocupante para a autonomia das Big Techs e sua relação com o governo. O mercado agora aguarda para ver se as recentes conversas citadas pelo Financial Times representam uma real possibilidade de conciliação ou apenas uma formalidade antes de uma batalha judicial.

Enquanto a Anthropic lida com as consequências dessa decisão, a OpenAI se posiciona para preencher a lacuna deixada no Pentágono. O impasse ético da Anthropic pode se transformar em uma vantagem competitiva de bilhões de dólares para seus concorrentes, redefinindo o cenário da inteligência artificial aplicada à defesa nacional. A forma como a Anthropic navegará por essa crise será crucial para seu futuro e para a definição dos limites éticos da IA no setor de segurança.

Sair da versão mobile