Anthropic Revela “Capybara”: O Modelo de IA Que Promete Superar Claude Opus, Mas Traz Novos Riscos de Cibersegurança

Anthropic confirma desenvolvimento de IA “mais capaz” que Opus, com potencial para revolucionar e desafiar a cibersegurança.

A Anthropic, empresa por trás do popular chatbot de inteligência artificial Claude, confirmou oficialmente que está desenvolvendo um novo modelo de IA significativamente mais avançado do que suas versões anteriores. A confirmação surge após um vazamento de dados ter revelado detalhes sobre o projeto, que promete um “salto de patamar” em desempenho.

O novo sistema, que internamente foi referido como “Capybara” e “Mythos” em documentos vazados, é descrito pela companhia como “o mais capaz que já construímos até hoje”. Testes iniciais com um grupo seleto de clientes já estão em andamento, indicando um lançamento cauteloso e estratégico.

O vazamento, que expôs informações sobre este novo modelo e a estratégia da Anthropic, ocorreu devido a um “erro humano” na configuração de um sistema de gerenciamento de conteúdo, conforme explicou a empresa. Arquivos considerados “rascunhos iniciais” foram acidentalmente expostos, detalhando a nova geração de modelos da IA.

“Capybara”: Uma Nova Camada de Inteligência Artificial Superior ao Opus

Os documentos vazados descrevem o “Capybara” como uma nova categoria de modelos, posicionada acima do Opus, que até então representava o ápice da capacidade da Anthropic. Essa nova camada de modelo é prevista como **maior e mais inteligente**, oferecendo avanços notáveis em áreas como programação, raciocínio acadêmico e cibersegurança.

Atualmente, a Anthropic organiza seus modelos em três níveis: Opus (os mais avançados), Sonnet (intermediários) e Haiku (leves e rápidos). O Capybara surge para redefinir essa hierarquia, prometendo desempenho superior ao Claude Opus 4.6, com pontuações dramaticamente mais altas em testes específicos. O treinamento do modelo “Claude Mythos” já foi concluído, sendo considerado pela empresa como “de longe, o modelo de IA mais poderoso que já desenvolvemos”.

Preocupações com Cibersegurança e Uso Malicioso

Um dos pontos mais críticos destacados nos documentos vazados é o potencial de risco do modelo Capybara na área de **segurança digital**. A Anthropic expressa uma cautela extra ao se preparar para o lançamento, buscando entender profundamente os riscos inerentes a uma IA tão poderosa.

Existe uma preocupação específica com o **uso malicioso** da tecnologia. O modelo estaria “atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas”, prevendo uma onda de ataques explorando vulnerabilidades com velocidade sem precedentes. Para mitigar esses riscos, a estratégia de lançamento inicial prioriza **defensores de segurança digital**, concedendo-lhes acesso antecipado para aprimorar a robustez de seus sistemas contra futuros exploits impulsionados por IA.

Estratégia de Lançamento e Histórico de Incidentes

O lançamento do novo modelo de IA será gradual, começando com um grupo restrito de usuários. Essa abordagem se deve não apenas ao **alto custo operacional**, mas também ao fato de o modelo ainda não estar totalmente pronto para uso em larga escala. A empresa confirmou o desenvolvimento do sistema, com avanços significativos em raciocínio, programação e cibersegurança, e está avaliando cuidadosamente como lançá-lo.

O vazamento, em si, foi atribuído a um “erro humano” na configuração de ferramentas externas de CMS, que tornam arquivos públicos por padrão. Embora muitos arquivos fossem materiais descartados, outros continham informações internas sensíveis. A Anthropic já enfrentou desafios de segurança anteriormente, incluindo tentativas de exploração de seus sistemas por grupos hackers, como uma organização ligada ao governo chinês, que utilizou o Claude Code para infiltrar cerca de 30 organizações.

A empresa tem demonstrado uma abordagem proativa em relação aos riscos da IA, reconhecendo que modelos recentes, incluindo o Opus 4.6, já ultrapassaram limites críticos em cibersegurança, capazes de identificar vulnerabilidades desconhecidas em códigos. A liberação antecipada para organizações de segurança visa justamente antecipar e combater ameaças emergentes, antes que se tornem amplamente exploráveis.