Volver al Hub

Agências dos EUA testam IA 'Mythos' da Anthropic, banida, para ciberofensiva contornando ordem executiva

Imagen generada por IA para: Agencias de EE.UU. prueban la IA 'Mythos' de Anthropic, prohibida, para ciberofensiva saltándose orden ejecutiva

A corrida armamentista de IA esquenta: Agências governamentais testam IA banida para ciberofensiva

Um esforço clandestino está em andamento no aparato de segurança nacional dos EUA, que coloca o imperativo da superioridade tecnológica contra mandatos executivos e limites éticos. De acordo com reportagens exclusivas, múltiplas agências federais, incluindo componentes do Departamento de Defesa e da comunidade de inteligência, estão testando ativamente o modelo de IA mais avançado da Anthropic, codinome "Mythos", para aplicações de cibersegurança ofensiva. Esse teste persiste apesar de uma ordem executiva ativa da administração Trump que proíbe explicitamente o uso federal dos sistemas da Anthropic devido a preocupações não resolvidas sobre segurança e controle.

A medida sublinha o ritmo frenético da corrida armamentista global de IA no ciberespaço. Oficiais de segurança argumentam que entender o potencial ofensivo de modelos como o Mythos não é uma escolha, mas uma necessidade. Acredita-se que nações adversárias, notadamente China e Rússia, estejam injetando recursos em capacidades cibernéticas similares alimentadas por IA. Para se defender de ataques potencializados por IA, o raciocínio é que os EUA devem primeiro entender como lançá-los. Isso criou um poderoso impulso interno que está encontrando maneiras de contornar a proibição presidencial, muitas vezes aproveitando contratos pré-existentes, orçamentos classificados de P&D ou parcerias com intermediários que podem acessar a tecnologia.

Foco técnico: Automatizando a cadeia de morte cibernética

Os testes do Mythos não são acadêmicos. Fontes indicam um foco em tarefas centrais de operações cibernéticas ofensivas que poderiam acelerar e escalar dramaticamente os ataques. As áreas-chave de avaliação incluem:

  • Pesquisa autônoma de vulnerabilidades: Testar a capacidade do modelo de escanear bases de código, configurações de rede e software proprietário para identificar vulnerabilidades novas, de dia zero, sem direção humana.
  • Geração e armamentização de exploits: Avaliar se a IA pode não apenas encontrar falhas, mas também criar código de exploração confiável e operacional, adaptado a ambientes-alvo específicos.
  • Orquestração de campanhas: Avaliar a capacidade do modelo de planejar e sequenciar ataques de múltiplos vetores, desde a reconhecência inicial e iscas de phishing até movimento lateral, exfiltração de dados e cobertura de rastros.

Isso representa uma mudança de paradigma potencial. Enquanto a IA tem sido usada por anos para tarefas defensivas como detecção de ameaças, sua maturação para uma ferramenta que pode executar autonomamente partes significativas da cadeia de morte cibernética é uma linha vermelha para muitos na comunidade de segurança.

O atoleiro legal e ético

Os testes existem em uma zona cinzenta legal. A proibição executiva sobre a Anthropic foi emitida citando a "agência imprevisível" e o alinhamento de segurança insuficiente de seus modelos. As agências que agora testam o Mythos navegam por um emaranhado de direito contratual—os próprios termos de serviço da Anthropic provavelmente proíbem o uso ofensivo—e possíveis violações da Lei de Fraude e Abuso de Computadores (CFAA) se os testes transbordarem para sistemas não autorizados. Além disso, relatórios sugerem que a própria Anthropic está em conversas delicadas com a administração Trump, possivelmente buscando uma exceção ou licença especial para trabalhos de segurança nacional, mesmo enquanto enfrenta contratempos com o Pentágono sobre questões de conformidade.

Esse conflito interno destaca uma cisão fundamental na governança de IA: a mesma tecnologia pode ser considerada perigosa demais para uso geral, mas essencial para a segurança do estado? As agências envolvidas parecem ter respondido afirmativamente, priorizando a vantagem tática percebida sobre a conformidade com políticas.

Setor financeiro em alerta máximo

As implicações estendem-se muito além das redes governamentais. O setor financeiro, um alvo perene de alto valor, observa com profunda preocupação. O Goldman Sachs supostamente emitiu alertas internos sobre o modelo Mythos, destacando especificamente seu potencial para analisar e explorar vulnerabilidades em plataformas bancárias globais, algoritmos de trading e sistemas de mensageria SWIFT. O temor é que uma IA assim possa automatizar roubos financeiros complexos ou manipular mercados a uma velocidade e sofisticação muito além de grupos criminosos liderados por humanos.

Implicações para profissionais de cibersegurança

Para a indústria de cibersegurança, esse desenvolvimento é um alerta. O paradigma defensivo deve evoluir sob a suposição de que atores de ameaças sofisticados, tanto estatais quanto criminosos, empunharão IA avançada. Isso significa:

  1. Investir em defesa potencializada por IA: Ferramentas defensivas devem aproveitar a IA não apenas para detecção, mas para defesa preditiva, aplicação autônoma de patches e contramedidas de ataque em tempo real.
  2. Robustecer sistemas contra exploração por IA: Arquiteturas de segurança precisam ser reavaliadas para resiliência contra reconhecimento e exploração dirigidos por IA, que podem encontrar caminhos de ataque novos que humanos ignorariam.
  3. Preparação ética e legal: Organizações devem desenvolver políticas claras sobre o uso de IA ofensiva em testes de red team e garantir que todos os testes permaneçam dentro de limites legais e éticos estritos.

Os testes de IA banida para ciberofensiva por agências dos EUA são mais do que uma escaramuça burocrática; são um termômetro para o futuro do conflito. Confirmam que os modelos de IA mais poderosos são agora vistos como armas estratégicas no domínio digital. À medida que as linhas entre desenvolvedor, usuário e armador se desfocam, a comunidade global enfrenta questões urgentes sobre controle, escalada e a própria natureza da segurança na era da inteligência artificial.

Fontes originais

NewsSearcher

Este artigo foi gerado pelo nosso sistema NewsSearcher de IA, analisando informações de múltiplas fontes confiáveis.

Mass. hospitals hit by cyberattack that caused network outage

Boston.com
Ver fonte

LifeBridge Health Data Breach Exposes Personal Information:

GlobeNewswire
Ver fonte

Blue Cross Blue Shield of Montana Data Breach Claims Being

GlobeNewswire
Ver fonte

⚠️ Fontes utilizadas como referência. CSRaid não se responsabiliza pelo conteúdo de sites externos.

Este artigo foi escrito com assistência de IA e revisado por nossa equipe editorial.

Comentarios 0

¡Únete a la conversación!

Los comentarios estarán disponibles próximamente.