Claude Mythos: o modelo de IA mais poderoso da Anthropic e os riscos que ninguém espera
Um vazamento acidental expôs o projeto mais ambicioso da Anthropic — um modelo que a própria empresa classifica como um salto sem precedentes em capacidades cibernéticas, capaz de atacar e defender sistemas em escala nunca vista.
Redação fl0w – 8 min de leitura
Atualização em tempo real: A Anthropic confirmou oficialmente o desenvolvimento do Claude Mythos após divulgação pela Fortune em 26 de março de 2026. A empresa removeu o cache público após ser contactada pela imprensa.
O vazamento
Como o segredo mais bem guardado da Anthropic veio à tona
No universo da inteligência artificial, segredos valem bilhões de dólares — e a Anthropic acaba de perder um dos seus da maneira mais irônica possível. Em 26 de março de 2026, a jornalista Bea Nolan, da Fortune, descobriu que cerca de 3.000 ativos digitais internos da empresa estavam acessíveis publicamente em um repositório de dados sem qualquer proteção.
Entre esses arquivos estava um rascunho de post de blog anunciando o Claude Mythos — o modelo de inteligência artificial mais avançado que a Anthropic já desenvolveu e que a empresa ainda não havia revelado ao mundo. O documento, localizado em um data lake publicamente indexável por qualquer pessoa com acesso à internet, descrevia em detalhes as capacidades extraordinárias do novo sistema, seu nome interno “Capybara” e, de forma alarmante, os potenciais riscos que ele representa para a segurança cibernética global.
A ironia não passou despercebida por ninguém da indústria: uma empresa construindo o que classifica como um modelo de IA com riscos de cibersegurança sem precedentes deixou justamente os detalhes mais sensíveis desse modelo expostos em um repositório público por um simples erro humano na gestão de conteúdo. Em outras palavras, a empresa criou uma falha de segurança ao anunciar uma IA projetada para identificar falhas de segurança.
Após ser contactada pela imprensa, a Anthropic removeu o acesso ao cache de dados e confirmou oficialmente, por meio de uma porta-voz, que está de fato desenvolvendo e testando o novo modelo — descrevendo-o como “um passo a frente” e “o mais capaz que já construímos até hoje.”
“Estamos desenvolvendo um modelo de uso geral com avanços significativos em raciocínio, codificação e cibersegurança. Dada a força de suas capacidades, estamos sendo deliberados sobre como lançá-lo.” — Porta-voz da Anthropic, março de 2026
3kativos internos expostos no data lake público
30+organizações infiltradas em campanha com Claude Code
48%dos profissionais de segurança apontam IA agêntica como vetor de ataque número 1
10dias para neutralizar a operação do grupo chinês patrocinado pelo Estado
O que é Claude Mythos
Um novo nível de IA: conheça a camada Capybara acima do Opus
Desde sua fundação, a Anthropic organizou seus modelos Claude em três camadas bem definidas: Opus (maior e mais poderoso), Sonnet (equilibrado entre performance e custo) e Haiku (rápido e econômico para tarefas simples). Essa arquitetura de três tiers era o padrão estabelecido no mercado — até agora.
Os documentos vazados revelam que a Anthropic está construindo uma nova camada chamada “Capybara”, posicionada acima do próprio Opus em tamanho, inteligência e custo operacional. O Claude Mythos seria o primeiro modelo desta nova camada. Segundo o rascunho do blog interno obtido pela Fortune, trata-se de “de longe o modelo de IA mais poderoso que já desenvolvemos” — uma afirmação que, considerando o histórico de inovação da empresa, não deve ser tomada de forma leviana.
Os benchmarks descritos nos documentos são impressionantes: comparado ao Claude Opus 4.6 — que já era considerado o modelo mais avançado disponível ao público —, o Claude Mythos obtém pontuações dramaticamente superiores em testes de codificação de software, raciocínio acadêmico e, especialmente, cibersegurança. O rascunho descreve o modelo como “atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas.”
O que os documentos revelam sobre o Claude Mythos
- Desempenho dramaticamente superior ao Claude Opus 4.6 em testes de codificação de software, raciocínio acadêmico e cibersegurança
- Classificado internamente como “atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas”
- Capacidade de identificar vulnerabilidades desconhecidas em codebases de produção ativos, a partir de análise autônoma
- Descrito como um sistema que “prevê uma onda de modelos capazes de explorar vulnerabilidades muito além dos esforços dos defensores”
- Atualmente em testes com clientes selecionados em programa de acesso antecipado — não disponível ao público geral
- Alto custo operacional — Anthropic ainda avalia estrutura de precificação antes do lançamento oficial
| Tier | Modelo | Posição na hierarquia | Status |
|---|---|---|---|
| Capybara | Claude Mythos | Acima do Opus — nova camada superior criada para capacidades extraordinárias | Testes com acesso antecipado |
| Opus | Claude Opus 4.6 | Modelo mais avançado disponível ao público geral até o momento | Lançado em março de 2026 |
| Sonnet | Claude Sonnet 4.6 | Equilíbrio inteligente entre performance e custo operacional | Disponível |
| Haiku | Claude Haiku 4.5 | Menor, mais rápido e mais econômico para tarefas rotineiras | Disponível |
O risco real
Por que a Anthropic está alertando governos sobre uma nova era de ciberataques
Se as capacidades do Claude Mythos impressionam, seus riscos preocupam tanto a própria empresa quanto especialistas em segurança nacional ao redor do mundo. De acordo com reportagem do Axios publicada em 29 de março de 2026, a Anthropic está alertando autoridades governamentais em caráter privado de que o novo modelo pode tornar ciberataques em larga escala significativamente mais prováveis ainda em 2026.
A razão é técnica, direta e assustadora: o Claude Mythos é capaz de operar como um agente autônomo de altíssima sofisticação para identificar e explorar vulnerabilidades em sistemas corporativos, governamentais e municipais. Segundo fontes ouvidas pelo Axios, o modelo permite que agentes trabalhem de forma independente, com precisão e sofisticação sem precedentes, para penetrar em sistemas críticos — tornando-o, nas palavras de uma fonte, “a arma dos sonhos de qualquer hacker.”
Alerta de Cibersegurança — Dados de 2026
Uma pesquisa da Dark Reading revelou que 48% dos profissionais de cibersegurança consideram a IA agêntica o principal vetor de ataque de 2026 — acima de deepfakes, phishing e de todas as outras ameaças combinadas. O risco não é hipotético: existem casos documentados e confirmados de exploração maliciosa de modelos da Anthropic.
O que torna este cenário ainda mais preocupante é o fenômeno que a indústria chama de “shadow AI” — o uso informal e não controlado de modelos como Claude, Microsoft Copilot e outros por funcionários fora dos ambientes corporativos protegidos. Ao usar agentes de inteligência artificial em dispositivos pessoais ou em redes domésticas conectadas indiretamente a sistemas de trabalho, colaboradores abrem brechas involuntárias que atacantes sofisticados podem explorar com ferramentas como o Mythos.
O próprio Claude Opus 4.6, lançado na mesma semana do vazamento, já demonstrou capacidade de identificar vulnerabilidades previamente desconhecidas em codebases ativos de produção — algo que a Anthropic reconheceu explicitamente como tecnologia de uso dual, podendo tanto auxiliar defensores de segurança cibernética quanto ser explorada por agentes maliciosos.
Ataques documentados
O caso do grupo chinês: uma campanha coordenada com inteligência artificial
Não se trata apenas de riscos teóricos ou cenários hipotéticos. A Anthropic revelou que grupos de hackers, incluindo aqueles com vínculos comprovados ao governo chinês, já utilizaram o Claude em ciberataques reais e documentados. Em um caso particularmente alarmante confirmado pela empresa, um grupo patrocinado pelo Estado chinês já estava executando uma campanha coordenada usando o Claude Code para infiltrar organizações antes que qualquer sinal de alerta fosse detectado.
A operação tinha como alvos aproximadamente 30 organizações globais, incluindo empresas de tecnologia, instituições financeiras e agências governamentais. Para contornar as salvaguardas da IA, o grupo se apresentava como organizações legítimas de teste de segurança — explorando a confiança que o modelo deposita em usuários aparentemente bem-intencionados. Após a detecção da campanha, a Anthropic levou 10 dias para investigar o escopo completo da operação, banir todas as contas envolvidas e notificar as organizações afetadas.
“O modelo prevê uma onda de sistemas capazes de explorar vulnerabilidades de formas que ultrapassam em muito os esforços dos defensores de segurança cibernética.” — Rascunho do blog interno da Anthropic sobre o Claude Mythos
Esse episódio transforma o debate sobre agentes de inteligência artificial em algo urgente, concreto e imediato. Se um modelo já disponível ao público em geral foi weaponizado por atores estatais para infiltrar dezenas de organizações ao redor do mundo, as implicações de um sistema significativamente mais capaz — como o Claude Mythos promete ser — merecem atenção redobrada de líderes corporativos, reguladores, governos e responsáveis por políticas públicas de segurança cibernética.
Contexto e perspectiva
Março de 2026: o mês mais intenso e controverso da história da Anthropic
O vazamento do Claude Mythos não aconteceu no vácuo. Março de 2026 foi, por qualquer medida objetiva, o período mais movimentado e turbulento da história da Anthropic. A empresa lançou mais de 14 atualizações e novos produtos em semanas — incluindo o Claude Opus 4.6, ferramentas avançadas de uso de computador e melhorias significativas no Claude Code. Paralelamente, o protocolo MCP (Model Context Protocol), desenvolvido pela Anthropic como padrão aberto para integração de agentes de IA com ferramentas externas, ultrapassou impressionantes 97 milhões de instalações globais.
Ao mesmo tempo, a empresa enfrentou ao menos cinco interrupções de serviço em seu produto principal, está no centro de um acordo polêmico com o Pentágono dos Estados Unidos que uma decisão judicial recente bloqueou temporariamente — classificando como “orwelliano” tentar rotular a Anthropic como risco à cadeia de suprimentos governamental — e viu seu trabalho em Claude Code e Claude Cowork repercutir de forma tão intensa que, segundo analistas, gerou preocupação real nos laboratórios concorrentes, incluindo a OpenAI.
O vazamento do Mythos — causado por um simples erro humano de configuração no sistema de gestão de conteúdo da empresa — foi um tropeço embaraçoso em meio a um período de expansão sem precedentes. Uma empresa que se posiciona como referência global em IA segura e responsável deixando informações sobre seu modelo mais poderoso expostas em um data lake público é, no mínimo, uma contradição difícil de ignorar.
O que isso significa para empresas e profissionais
- Líderes de TI devem revisar urgentemente políticas de uso de IA agêntica, especialmente fora de ambientes corporativos controlados e monitorados
- Equipes de cibersegurança precisam incorporar “IA como vetor de ataque” em todos os modelos de ameaças e planos de resposta a incidentes
- A chegada do Claude Mythos vai elevar o patamar de benchmark para todos os laboratórios — incluindo OpenAI, Google DeepMind e Meta AI
- Governos e reguladores devem acelerar frameworks específicos para modelos de alto risco antes do lançamento público do Mythos
- Profissionais e empresas devem construir ambientes sandbox seguros e isolados para experimentos com agentes de IA autônomos
- O conceito de “shadow AI” deve virar política formal de segurança em qualquer organização que lide com dados sensíveis
Conclusão
O dilema central da inteligência artificial em 2026
O episódio do Claude Mythos cristaliza o dilema fundamental que a indústria de inteligência artificial enfrenta neste momento histórico: as mesmas capacidades que tornam um modelo extraordinariamente útil — identificar padrões complexos, raciocinar sobre sistemas, agir de forma autônoma com precisão — são precisamente as que o tornam uma arma potencial nas mãos erradas.
A Anthropic, reconhecida internacionalmente por sua abordagem criteriosa à segurança em IA e por desenvolver os modelos Constitution AI com controles de alinhamento robustos, está sendo deliberada sobre o lançamento do Mythos — testando-o com clientes selecionados antes de qualquer disponibilidade ampla ao mercado. Isso é, em si, um sinal positivo e responsável. Mas o fato de que os detalhes do modelo mais poderoso da empresa vazaram por um erro básico de configuração levanta questões legítimas sobre maturidade operacional e consistência entre discurso e prática.
O que é certo é que o Claude Mythos vai mudar o jogo da inteligência artificial quando for lançado. Ele redefinirá o que é possível em codificação autônoma, raciocínio avançado e cibersegurança ofensiva e defensiva. A questão que permanece em aberto — e que manterá governos, empresas e pesquisadores em alerta nas próximas semanas e meses — é se o mundo estará preparado para lidar com essa mudança de paradigma de forma verdadeiramente responsável, antes que o próximo ciberataque em larga escala demonstre que não estava.
Claude MythosAnthropicInteligência Artificial 2026Cibersegurança IAAgentes de IAClaude CapybaraClaude Opus 4.6Shadow AISegurança CibernéticaVazamento AnthropicIA AgênticaModelo de Linguagem
© 2026 fl0w. Conteúdo informativo sobre tecnologia e inteligência artificial.
Baseado em informações reportadas pela Fortune, Axios e CoinDesk em março de 2026.