En un momento histórico para la militarización de la inteligencia artificial, el Pentágono ha finalizado una serie de contratos clasificados por valor estimado de 7.000 millones de dólares con siete de las empresas tecnológicas más prominentes del mundo. Los acuerdos, anunciados el 1 de mayo de 2026, autorizan a OpenAI, Google, Microsoft, Amazon, Nvidia, SpaceX y Reflection a desplegar sus sistemas de IA en redes militares clasificadas, integrando efectivamente la IA comercial en el núcleo de la infraestructura de defensa estadounidense.
Sin embargo, el anuncio quedó eclipsado por una exclusión igualmente significativa: Anthropic, la empresa de seguridad de IA detrás del modelo Claude, ha sido explícitamente vetada del programa. El jefe de tecnología del Pentágono, Dr. William LaPlante, confirmó la decisión, afirmando que 'Anthropic sigue vetada' debido a preocupaciones no resueltas sobre la seguridad de la cadena de suministro, a pesar de la participación de la empresa en el programa experimental separado 'Mythos'.
El Acuerdo de 7.000 Millones: Una Nueva Superficie de Ataque
La escala y el alcance de esta iniciativa no tienen precedentes. Por primera vez, el ejército estadounidense tendrá acceso directo a modelos de IA comercial de última generación para operaciones clasificadas, incluido el análisis de inteligencia, sistemas autónomos de apoyo a la toma de decisiones y planificación de ciberguerra. Los contratos cubren desde infraestructura en la nube (Amazon Web Services, Microsoft Azure, Google Cloud) hasta entrenamiento de modelos de IA (OpenAI, Nvidia) y despliegue de IA basada en satélites (constelación Starlink de SpaceX).
Desde una perspectiva de ciberseguridad, esto crea una superficie de ataque masiva y nueva. Al integrar la IA comercial en redes clasificadas, el Pentágono está extendiendo efectivamente el perímetro de sus sistemas más sensibles hacia la infraestructura en la nube de estas empresas privadas. Cada punto de integración (puertas de enlace API, tuberías de datos, puntos finales de modelos) representa un vector potencial para la explotación adversaria.
Por Qué Anthropic Fue Vetada
La exclusión de Anthropic es particularmente llamativa dada la misión fundacional de la empresa: construir sistemas de IA que sean seguros, protegidos y alineados con los valores humanos. El modelo Claude de Anthropic ha sido ampliamente reconocido por sus sólidas características de seguridad y alineación ética, lo que lo convierte en un candidato aparentemente ideal para aplicaciones militares que requieren una adhesión estricta a las reglas de enfrentamiento.
Sin embargo, la evaluación de seguridad de la cadena de suministro del Pentágono identificó vulnerabilidades críticas en la infraestructura de Anthropic. Según fuentes familiarizadas con la evaluación, las preocupaciones se centraron en:
- Dependencias de terceros: Anthropic depende en gran medida de la infraestructura en la nube de AWS y Google Cloud, lo que crea posibles puntos de estrangulamiento en la cadena de suministro que podrían ser explotados por adversarios.
- Procedencia del modelo: El Pentágono no pudo verificar completamente el origen y el linaje de los datos de entrenamiento de los modelos fundacionales de Claude, lo que generó preocupaciones sobre posibles puertas traseras o envenenamiento de datos.
- Falta de aislamiento de hardware: A diferencia de los chips militares dedicados de Nvidia o las redes satelitales aisladas de SpaceX, Anthropic carece de las garantías de seguridad a nivel de hardware requeridas para despliegues clasificados.
El Dr. LaPlante enfatizó que la lista negra no es permanente, pero que Anthropic debe demostrar 'integridad verificable de la cadena de suministro' antes de ser reconsiderada. Esto incluye implementar medidas de seguridad a nivel de hardware, establecer tuberías de datos completamente auditables y demostrar independencia de la infraestructura de propiedad extranjera.
La Distinción de Mythos
Añadiendo complejidad, Anthropic sigue involucrada en el programa 'Mythos' del Pentágono, una iniciativa experimental centrada en la investigación de seguridad de IA para aplicaciones militares no clasificadas. Esto ha generado confusión en la industria sobre la relación real de la empresa con el Departamento de Defensa. El Dr. LaPlante aclaró la distinción: 'Mythos es un programa de investigación para comprender los riesgos de la IA. El programa de despliegue clasificado es para uso operativo. No son lo mismo, y Anthropic no está autorizada para esto último'.
Esta distinción es crítica para los profesionales de ciberseguridad. Significa que, si bien Anthropic puede contribuir a la investigación teórica de seguridad, sus modelos no pueden utilizarse en operaciones militares en vivo ni conectarse a redes clasificadas, una limitación significativa que efectivamente margina a la empresa de los contratos de defensa más lucrativos e impactantes.
Implicaciones Geopolíticas
El momento del anuncio no es casualidad. Estados Unidos está compitiendo por establecer un dominio tecnológico sobre China en la carrera armamentista de IA, y el Pentágono ha asignado más de 50.000 millones de dólares para programas de defensa relacionados con IA en el año fiscal 2026. Al asegurar a siete proveedores importantes de IA, el Pentágono está creando un 'ecosistema cerrado' para la IA militar que limita el riesgo de transferencia de tecnología a adversarios.
La exclusión de Anthropic también envía una señal clara a la industria de la IA: las credenciales de seguridad por sí solas no son suficientes para los contratos de defensa. Las empresas también deben demostrar resiliencia en la cadena de suministro, independencia de hardware y posturas de seguridad verificables. Esto podría remodelar la forma en que las empresas de IA abordan la arquitectura de seguridad, impulsando potencialmente un cambio hacia sistemas de IA integrados verticalmente y asegurados por hardware.
La Objeción de los Empleados de Google
Los acuerdos no han estado exentos de controversia interna. Informes indican que los empleados de Google plantearon objeciones al acuerdo clasificado de IA, haciéndose eco del histórico lema 'No seas malvado' de la empresa y su decisión de 2018 de retirarse del Proyecto Maven, un programa de IA para drones militares. Sin embargo, a diferencia de 2018, el liderazgo de Google ha optado por continuar, lo que refleja el cambio de normas en torno a la participación corporativa en la IA de defensa.
Esta disidencia interna resalta una tensión creciente dentro de la industria tecnológica: el conflicto entre los contratos de defensa impulsados por las ganancias y las preocupaciones de los empleados sobre las implicaciones éticas de la IA militarizada. Para los profesionales de ciberseguridad, esta tensión crea un entorno incierto donde las amenazas internas y los riesgos de denunciantes pueden aumentar a medida que se pide a más ingenieros que trabajen en proyectos militares clasificados.
Recomendaciones de Seguridad
Para las organizaciones en la cadena de suministro de defensa, la decisión del Pentágono ofrece varias lecciones:
- La verificación de la cadena de suministro es primordial: Las empresas que buscan contratos de defensa deben estar preparadas para un escrutinio profundo de sus dependencias de infraestructura.
- La seguridad a nivel de hardware importa: Las posturas de seguridad basadas únicamente en software son insuficientes para despliegues clasificados.
- La procedencia del modelo es un nuevo vector de ataque: Los adversarios pueden apuntar a las tuberías de datos de entrenamiento para comprometer los modelos antes de que se desplieguen.
- Controles de acceso de empleados: A medida que más ingenieros trabajen en IA clasificada, los programas de amenazas internas deben fortalecerse.
La apuesta de 7.000 millones de dólares del Pentágono por la IA comercial es un arma de doble filo. Promete capacidades analíticas y operativas sin precedentes, pero también crea una superficie de ataque compleja y de múltiples capas que los adversarios inevitablemente probarán. La exclusión de Anthropic sirve como un recordatorio contundente de que en el mundo de la IA militar, la seguridad no es suficiente: la protección debe estar integrada en cada capa de la pila tecnológica.

Comentarios 0
Comentando como:
¡Únete a la conversación!
Sé el primero en compartir tu opinión sobre este artículo.
¡Inicia la conversación!
Sé el primero en comentar este artículo.