Volver al Hub

Agencias de EE.UU. prueban la IA 'Mythos' de Anthropic, prohibida, para ciberofensiva saltándose orden ejecutiva

Imagen generada por IA para: Agencias de EE.UU. prueban la IA 'Mythos' de Anthropic, prohibida, para ciberofensiva saltándose orden ejecutiva

Se intensifica la carrera armamentística de IA: Agencias gubernamentales prueban IA prohibida para ciberofensiva

Un esfuerzo clandestino está en marcha dentro del aparato de seguridad nacional de EE.UU., que enfrenta el imperativo de la superioridad tecnológica contra los mandatos ejecutivos y los límites éticos. Según informes exclusivos, múltiples agencias federales, incluidos componentes del Departamento de Defensa y la comunidad de inteligencia, están probando activamente el modelo de IA más avanzado de Anthropic, con nombre en clave "Mythos", para aplicaciones de ciberseguridad ofensiva. Estas pruebas persisten a pesar de una orden ejecutiva activa de la administración Trump que prohíbe explícitamente el uso federal de los sistemas de Anthropic debido a preocupaciones no resueltas sobre seguridad y control.

La medida subraya el ritmo frenético de la carrera armamentística global de IA en el ciberespacio. Los oficiales de seguridad argumentan que comprender el potencial ofensivo de modelos como Mythos no es una opción, sino una necesidad. Se cree que naciones adversarias, notablemente China y Rusia, están vertiendo recursos en capacidades cibernéticas similares impulsadas por IA. Para defenderse de ataques potenciados por IA, el razonamiento indica que EE.UU. debe primero entender cómo lanzarlos. Esto ha creado una poderosa dinámica interna que está encontrando formas de eludir la prohibición presidencial, a menudo aprovechando contratos preexistentes, presupuestos clasificados de I+D o alianzas con intermediarios que pueden acceder a la tecnología.

Enfoque técnico: Automatizando la cadena de muerte cibernética

Las pruebas de Mythos no son académicas. Las fuentes indican un enfoque en tareas centrales de operaciones cibernéticas ofensivas que podrían acelerar y escalar dramáticamente los ataques. Las áreas clave de evaluación incluyen:

  • Investigación autónoma de vulnerabilidades: Probar la capacidad del modelo para escanear bases de código, configuraciones de red y software propietario para identificar vulnerabilidades novedosas de día cero sin dirección humana.
  • Generación y weaponización de exploits: Evaluar si la IA puede no solo encontrar fallos, sino también elaborar código de explotación confiable y operativo, adaptado a entornos objetivo específicos.
  • Orquestación de campañas: Evaluar la capacidad del modelo para planificar y secuenciar ataques de múltiples vectores, desde el reconocimiento inicial y los señuelos de phishing hasta el movimiento lateral, la exfiltración de datos y el borrado de huellas.

Esto representa un cambio de paradigma potencial. Mientras que la IA se ha utilizado durante años para tareas defensivas como la detección de amenazas, su maduración hacia una herramienta que puede ejecutar autónomamente partes significativas de la cadena de muerte cibernética es una línea roja para muchos en la comunidad de seguridad.

El atolladero legal y ético

Las pruebas existen en una zona gris legal. La prohibición ejecutiva sobre Anthropic se emitió citando la "agencia impredecible" y la alineación de seguridad insuficiente de sus modelos. Las agencias que ahora prueban Mythos navegan por una maraña de derecho contractual—los propios términos de servicio de Anthropic probablemente prohíben el uso ofensivo—y posibles violaciones de la Ley de Fraude y Abuso Informático (CFAA) si las pruebas se extienden a sistemas no autorizados. Además, los informes sugieren que el propio Anthropic está en conversaciones delicadas con la administración Trump, posiblemente buscando una excepción o licencia especial para trabajos de seguridad nacional, incluso mientras enfrenta contratiempos con el Pentágono por problemas de cumplimiento.

Este conflicto interno destaca una escisión fundamental en la gobernanza de la IA: ¿puede la misma tecnología considerarse demasiado peligrosa para uso general pero esencial para la seguridad del estado? Las agencias involucradas parecen haber respondido afirmativamente, priorizando la ventaja táctica percibida sobre el cumplimiento normativo.

El sector financiero en alerta máxima

Las implicaciones se extienden mucho más allá de las redes gubernamentales. El sector financiero, un objetivo perenne de alto valor, observa con profunda preocupación. Goldman Sachs ha emitido, según se informa, alertas internas sobre el modelo Mythos, destacando específicamente su capacidad potencial para analizar y explotar vulnerabilidades en plataformas bancarias globales, algoritmos de trading y sistemas de mensajería SWIFT. El temor es que una IA así pueda automatizar atracos financieros complejos o manipular mercados a una velocidad y sofisticación muy superiores a los grupos criminales dirigidos por humanos.

Implicaciones para los profesionales de la ciberseguridad

Para la industria de la ciberseguridad, este desarrollo es una llamada de atención. El paradigma defensivo debe evolucionar bajo la suposición de que actores de amenazas sofisticados, tanto estatales como criminales, emplearán IA avanzada. Esto significa:

  1. Invertir en defensa potenciada por IA: Las herramientas defensivas deben aprovechar la IA no solo para la detección, sino para la defensa predictiva, la aplicación autónoma de parches y las contramedidas de ataque en tiempo real.
  2. Robustecer sistemas contra la explotación por IA: Las arquitecturas de seguridad deben reevaluarse para garantizar resiliencia contra el reconocimiento y la explotación impulsados por IA, que pueden encontrar rutas de ataque novedosas que los humanos pasarían por alto.
  3. Preparación ética y legal: Las organizaciones deben desarrollar políticas claras sobre el uso de IA ofensiva en pruebas de red teaming y asegurar que todas las pruebas se mantengan dentro de límites legales y éticos estrictos.

Las pruebas de IA prohibida para ciberofensiva por agencias de EE.UU. son más que una escaramuza burocrática; son un indicador del futuro del conflicto. Confirma que los modelos de IA más poderosos son ahora vistos como armas estratégicas en el dominio digital. A medida que las líneas entre desarrollador, usuario y convertidor en arma se desdibujan, la comunidad global enfrenta preguntas urgentes sobre el control, la escalada y la propia naturaleza de la seguridad en la era de la inteligencia artificial.

Fuentes originales

NewsSearcher

Este artículo fue generado por nuestro sistema NewsSearcher de IA, que analiza y sintetiza información de múltiples fuentes confiables.

Federal agencies skirt Trump's Anthropic ban to test its advanced AI model: Politico

The Economic Times
Ver fuente

Federal agencies skirt Trump’s Anthropic ban to test its advanced AI model

POLITICO
Ver fuente

Anthropic in Talks With Trump on Mythos Despite Pentagon Setback

Outlook Business
Ver fuente

Goldman Sachs em alerta com nova IA da Anthropic

Olhar Digital
Ver fuente

⚠️ Fuentes utilizadas como referencia. CSRaid no se responsabiliza por el contenido de sitios externos.

Este artículo fue redactado con asistencia de IA y supervisado por nuestro equipo editorial.

Comentarios 0

¡Únete a la conversación!

Sé el primero en compartir tu opinión sobre este artículo.