Volver al Hub

Plan de contingencia del Pentágono: Herramientas de Anthropic reservadas para crisis de seguridad nacional 'extraordinarias'

El Departamento de Defensa de los Estados Unidos ha desarrollado un marco de contingencia clasificado que permitiría el uso continuado de las herramientas de inteligencia artificial de Anthropic durante emergencias de seguridad nacional declaradas, según memorandos internos obtenidos y analizados por expertos en ciberseguridad. Este protocolo de "Excepción de IA", integrado en directivas más amplias para eliminar progresivamente los sistemas de IA comerciales, revela un dilema operacional significativo que enfrentan las agencias militares y de inteligencia modernas: cómo conciliar los mandatos políticos de soberanía tecnológica con la realidad táctica de la dependencia de IA de vanguardia desarrollada comercialmente para funciones críticas de ciberseguridad e inteligencia.

Los memorandos, presuntamente circulados entre altos funcionarios de la Agencia de Sistemas de Información de la Defensa (DISA) y del Centro Conjunto de Inteligencia Artificial (JAIC), describen un proceso de autorización escalonado. Bajo este proceso, una declaración formal de una "circunstancia extraordinaria" por parte del Secretario de Defensa o de un comandante combatiente designado activaría una exención temporal de la política vigente que exige una reducción progresiva de seis meses en el uso del modelo Claude de Anthropic en las redes del Pentágono. Las circunstancias están definidas de manera vaga, pero se entiende que incluyen escenarios como un ciberataque catastrófico a infraestructuras críticas, una campaña de guerra de información multifrente que desborde a los analistas humanos, o la necesidad de una fusión de inteligencia rápida y a gran escala durante un conflicto cinético.

Desde una perspectiva de operaciones de seguridad (SecOps), el plan de contingencia subraya una realidad cruda. Los modelos de lenguaje extenso (LLM) comerciales como el Claude de Anthropic se han integrado profundamente en los flujos de trabajo defensivos. Estas herramientas se utilizan para tareas que van desde el análisis automatizado de firmas de malware y archivos de registro hasta la redacción de manuales de respuesta a incidentes y la traducción de comunicaciones adversarias capturadas. La evaluación interna dentro del Pentágono sugiere que, para ciertas tareas analíticas complejas y de alto volumen, ningún sistema de IA desarrollado internamente o proporcionado por el gobierno iguala actualmente la velocidad y precisión contextual de las principales ofertas comerciales. Esto crea una brecha de capacidad que los planificadores no están dispuestos a aceptar durante una crisis.

Los anexos técnicos mencionados en los memorandos son de particular interés para la comunidad de seguridad. Según los informes, detallan una configuración de "espera activa" para las herramientas de Anthropic. Esto implicaría mantener endpoints de API aislados y seguros, y acuerdos de nivel de servicio (SLA) prenegociados para garantizar el acceso inmediato, potencialmente omitiendo los canales normales de adquisición y cumplimiento. Además, los planes exigen que se activen protocolos de "validación de salida" y monitoreo mejorado concurrentemente con las herramientas de IA. Esto implica el uso de sistemas de IA secundarios o analizadores basados en reglas reforzados para examinar las recomendaciones y el código generado por los modelos primarios de Anthropic, una forma de auditoría de seguridad de IA sobre IA para mitigar los riesgos de envenenamiento de datos, ataques de inyección de prompts o desviación del modelo durante un uso de alto estrés.

Las implicaciones éticas y estratégicas son profundas. Este marco de contingencia institucionaliza efectivamente una puerta trasera, creando una superficie de ataque persistente. Las naciones adversarias conscientes de esta dependencia podrían apuntar a la infraestructura de Anthropic o a las vías de acceso especializadas en una fase previa al conflicto, con el objetivo de degradar una capacidad que el ejército estadounidense considera esencial para la respuesta a crisis. También plantea dudas sobre la viabilidad de las iniciativas de "IA soberana" si las funciones más críticas siguen externalizadas, aunque sea bajo disposiciones de emergencia. Para los equipos de SecOps gubernamentales, esto significa que sus modelos de amenazas ahora deben tener en cuenta la seguridad de una cadena de suministro de IA comercial que tienen el mandato de abandonar en tiempos de paz, pero en la que podrían verse obligados a confiar en tiempos de guerra.

Esta revelación apunta a una tendencia más amplia en la ciberseguridad de la seguridad nacional: la adopción operacional de la IA ha superado con creces el desarrollo de alternativas políticas y seguras soberanas. El dilema del Pentágono es un microcosmos de los desafíos que enfrentan las empresas en todo el mundo, aunque a una escala de consecuencias infinitamente mayor. El plan de retener una palanca de emergencia de IA sugiere que, para ciertas tareas cognitivas avanzadas en la defensa cibernética y la inteligencia, la capacidad se considera actualmente un activo estratégico, que supera los riesgos asociados de la cadena de suministro y la dependencia en un escenario de caso extremo. En el futuro, esto probablemente acelerará la inversión en réplicas seguras y aisladas de las capacidades de IA comercial y en marcos de verificación más robustos para la toma de decisiones asistida por IA en entornos de alto riesgo.

Fuentes originales

NewsSearcher

Este artículo fue generado por nuestro sistema NewsSearcher de IA, que analiza y sintetiza información de múltiples fuentes confiables.

Anthropic can still be used by Trump’s Pentagon if US faces ‘extraordinary’ national security issue

The Financial Express
Ver fuente

US military may keep Anthropic tools for exceptional circumstances, memo says

India Today
Ver fuente

⚠️ Fuentes utilizadas como referencia. CSRaid no se responsabiliza por el contenido de sitios externos.

Este artículo fue redactado con asistencia de IA y supervisado por nuestro equipo editorial.

Comentarios 0

¡Únete a la conversación!

Sé el primero en compartir tu opinión sobre este artículo.