Ícone do site Café Codificado

Sam Altman, da OpenAI, intervém na disputa do Pentágono com a Anthropic sobre IA em armas, propondo um meio-termo ético

OpenAI busca mediar conflito entre Pentágono e Anthropic sobre uso militar de IA

A inteligência artificial tem se tornado um campo de batalha, não apenas no desenvolvimento tecnológico, mas também em discussões éticas e de segurança nacional. O CEO da OpenAI, Sam Altman, decidiu intervir em um embate crucial que envolve a Anthropic, o Departamento de Defesa dos Estados Unidos e o uso de IA em operações militares.

Altman enviou um comunicado interno aos funcionários da OpenAI na noite de quinta-feira (26), detalhando os esforços da empresa para negociar um acordo com o Pentágono. O objetivo é permitir o uso de seus modelos de IA em ambientes considerados sensíveis, mas sem abrir mão de princípios éticos considerados inegociáveis pela companhia.

Segundo o comunicado, a OpenAI busca um contrato que autorize a aplicação da IA para “todos os usos legais”, com exclusão expressa de casos como vigilância em massa e o desenvolvimento de armas letais totalmente autônomas. Até o momento, nenhuma formalização ocorreu, e as negociações ainda podem não ter sucesso. Conforme noticiado pelo Wall Street Journal, Altman expressou apoio à postura da Anthropic em estabelecer limites éticos para aplicações militares, ao mesmo tempo em que reconhece a preocupação do governo em controlar tecnologias de alta sensibilidade.

A proposta da OpenAI para um acordo equilibrado

A estratégia da OpenAI para contornar o impasse entre o Pentágono e a Anthropic foca em medidas técnicas e parcerias. A empresa sugere a restrição da execução de seus modelos de IA a ambientes de nuvem controlados, evitando assim implementações diretas em contextos militares que possam gerar riscos éticos.

Além disso, a OpenAI planeja disponibilizar equipes especializadas para trabalhar em conjunto com o governo. O objetivo é garantir que a tecnologia seja utilizada estritamente dentro dos parâmetros éticos e de segurança definidos. A expectativa de Sam Altman é que essa solução negociada possa servir como um modelo para todo o setor de inteligência artificial em relação ao uso militar.

A pressão do Pentágono sobre a Anthropic

O Departamento de Defesa dos Estados Unidos tem intensificado a pressão sobre a Anthropic para que a empresa flexibilize suas rígidas políticas de segurança. O Pentágono deseja que a Anthropic autorize o uso de sua IA, o Claude, para “todos os fins lícitos”.

No entanto, o CEO da Anthropic, Dario Amodei, já declarou publicamente que não permitirá que o Claude seja utilizado em armas totalmente autônomas ou em sistemas de vigilância doméstica em larga escala. O secretário de Defesa, Pete Hegseth, estabeleceu o fim da tarde de sexta-feira (27) como prazo para a decisão da Anthropic, sinalizando que, caso a empresa não ceda, poderá perder o contrato com o governo americano.

Em um cenário mais drástico, o governo poderia intervir na atuação da companhia em nome da segurança nacional. Parlamentares de ambos os partidos também se manifestaram, enviando cartas às partes envolvidas solicitando diálogo e sugerindo a extensão do prazo para a decisão.

O debate ético e o caso da xAI com o Grok

Sam Altman enfatizou que o cerne do impasse não é apenas o tipo de aplicação da tecnologia, mas o controle sobre ela. Ele argumentou que, embora empresas privadas possam ter influência significativa, elas não devem se sobrepor ao governo eleito em decisões cruciais de segurança nacional, reforçando a importância dos limites éticos na IA.

Enquanto a Anthropic enfrenta resistência por manter suas restrições, o Pentágono avançou na adoção do Grok, chatbot da xAI, para uso em ambientes sensíveis. Essa decisão foi tomada mesmo diante de alertas internos de diferentes agências federais sobre potenciais fragilidades de segurança e confiabilidade do modelo.

Preocupações como a suscetibilidade do Grok à manipulação por dados tendenciosos ou imprecisos, e episódios anteriores de geração de imagens sexualizadas, foram levantadas por funcionários da Administração de Serviços Gerais e outros órgãos. Relatórios internos também apontaram riscos relacionados à rastreabilidade de dados de treinamento e à robustez dos testes de segurança. Apesar disso, o Departamento de Defesa demonstrou entusiasmo com a integração da xAI a projetos sensíveis, indicando planos para incorporar o Grok à sua plataforma oficial de IA.

Analistas interpretam esse movimento como parte de um cenário cada vez mais politizado, onde as posições públicas das empresas sobre segurança e regulação de IA impactam diretamente as decisões contratuais. A jornalista Vitória Lopes Gomez, formada pela UNESP, contribuiu com detalhes sobre a disputa no Olhar Digital.

Sair da versão mobile