Volver al Hub

AWS se alía con Cerebras para competir con Nvidia en IA en la nube, redefiniendo la arquitectura de seguridad

El panorama competitivo de la inteligencia artificial en la nube está experimentando un cambio sísmico. Amazon Web Services (AWS) ha establecido una asociación estratégica con la startup de Silicon Valley Cerebras Systems, con el objetivo de desplegar los innovadores chips de IA Wafer-Scale Engine 3 (WSE-3) de Cerebras en la plataforma en la nube de AWS. Esta alianza marca una escalada significativa en las continuas "guerras de los chips de IA", desafiando directamente la cuasi hegemonía de las GPU de Nvidia en la aceleración de cargas de trabajo de IA. Más allá de la dinámica de mercado, este movimiento tiene implicaciones profundas para la arquitectura de seguridad en la nube, la resiliencia de la infraestructura y las opciones estratégicas disponibles para los líderes de ciberseguridad.

Fundamento Técnico: La Ventaja del Cerebras WSE-3

Cerebras se distingue por un enfoque arquitectónico radical. En lugar de cortar una oblea de silicio en miles de chips pequeños y discretos (como las GPU), la empresa utiliza la oblea completa como una única unidad de procesamiento masiva. El WSE-3 se fabrica en un proceso de 5 nm y cuenta con la asombrosa cifra de 4 billones de transistores y 900.000 núcleos optimizados para IA. Este diseño a escala de oblea está concebido para superar los cuellos de botella de rendimiento asociados con la conexión de múltiples chips más pequeños, particularmente para el entrenamiento y, como se destaca en esta colaboración con AWS, la inferencia de modelos de lenguaje grande (LLM). La asociación se centra específicamente en desarrollar un nuevo producto de inferencia de IA optimizado para las inmensas demandas computacionales de ejecutar LLM en producción, ofreciendo una alternativa a las plataformas H100 de Nvidia y la próxima Blackwell.

Implicaciones para la Ciberseguridad: Diversificación y Mitigación de Riesgos

Para los Directores de Seguridad de la Información (CISO) y los arquitectos de seguridad en la nube, este desarrollo es más que un anuncio de un proveedor; es un punto de inflexión potencial para la gestión de riesgos.

  1. Reducción de la Dependencia de un Único Proveedor: El dominio de Nvidia ha creado una forma de bloqueo de infraestructura crítica. Una falla de seguridad, una interrupción de la cadena de suministro o una acción geopolítica que afecte al hardware de Nvidia podría tener efectos en cascada en todo el ecosistema global de IA. Al validar e integrar una alternativa de alto rendimiento como Cerebras, AWS proporciona a sus clientes una opción de contingencia viable. Esta diversificación fortalece la continuidad del negocio y los planes de recuperación ante desastres para las empresas dependientes de la IA.
  1. Reevaluación del Modelo de Responsabilidad Compartida: Introducir hardware novedoso como el WSE-3 en los centros de datos de AWS añade una nueva capa al modelo de responsabilidad compartida. Si bien AWS sigue siendo responsable de la "seguridad de la nube" (incluida la seguridad física y el aislamiento del hipervisor para los sistemas Cerebras), los clientes deben comprender las características de seguridad únicas de este nuevo tipo de instancia de computación. Esto incluye cualquier controlador propietario, ciclos de actualización de firmware y vulnerabilidades potenciales de canal lateral específicas de la arquitectura de escala de oblea. Los equipos de seguridad deberán auditar sus cargas de trabajo de IA para garantizar que se mantengan los estándares de cumplimiento y protección de datos en esta nueva plataforma.
  1. Seguridad de la Cadena de Suministro e Integridad del Firmware: Cada nuevo proveedor de hardware introduce una nueva cadena de suministro y fuente de firmware. Los equipos de ciberseguridad deben ampliar sus programas de gestión de riesgos de proveedores para incluir a Cerebras. Surgen preguntas clave: ¿Cuál es el proceso de seguridad y actualización del firmware para el WSE-3? ¿Cómo se establece la raíz de confianza del hardware? ¿El diseño incorpora módulos de seguridad de hardware o capacidades de informática confidencial para proteger los pesos del modelo y los datos de inferencia? Las respuestas serán críticas para las industrias reguladas que consideren esta plataforma.
  1. Compromisos entre Rendimiento y Seguridad en la Inferencia de IA: La inferencia de IA de alto rendimiento, especialmente para LLM, no se trata solo de velocidad y coste. También implica manejar de forma segura consultas sensibles y datos de modelos propietarios. Una plataforma optimizada para inferencia puede permitir una implementación más eficiente de controles de seguridad, como el filtrado de contenido en tiempo real, el escaneo de prevención de pérdida de datos en las salidas o el cifrado de tensores intermedios. La eficiencia arquitectónica del WSE-3 podría liberar recursos de computación para estas funciones de seguridad esenciales sin degradar la experiencia del usuario.

Impacto Estratégico en la Postura de Seguridad en la Nube

El acuerdo entre AWS y Cerebras es una maniobra estratégica que altera el equilibrio de poder en la infraestructura en la nube. Desde una perspectiva de seguridad, empodera a los clientes. Con una alternativa creíble en juego, AWS (y otros proveedores de nube) enfrentarán una presión mayor para competir no solo en precio-rendimiento, sino también en las funciones de seguridad integradas en sus pilas de hardware de IA. Esto podría acelerar la innovación en áreas como el cifrado acelerado por hardware para modelos de IA, la multi-tenencia segura para chips ultra potentes y herramientas de auditoría de seguridad más transparentes para aceleradores de IA de "caja negra".

Además, fomenta una estrategia de IA multi-nube o híbrida desde un punto de vista de resiliencia. Las organizaciones podrían optar por entrenar modelos en una plataforma (por ejemplo, usando GPU de Nvidia) pero desplegar la inferencia en otra (por ejemplo, usando Cerebras en AWS) para mitigar riesgos específicos de la plataforma. Las arquitecturas de seguridad deben ahora diseñarse para soportar esta portabilidad, garantizando una gobernanza de datos, controles de acceso y monitorización consistentes en backends de hardware de IA dispares.

Conclusión: Una Nueva Era de Elección y Escrutinio

La integración de la tecnología de Cerebras en AWS señala el comienzo de un mercado más diversificado y competitivo para la aceleración de IA en la nube. Para la comunidad de ciberseguridad, este es un desarrollo positivo que reduce el riesgo sistémico. Sin embargo, también exige una mayor vigilancia. Cada nuevo paradigma de hardware trae consigo vulnerabilidades desconocidas y complejidades de gestión. Los líderes de seguridad deben involucrarse proactivamente con sus proveedores de nube y equipos de desarrollo internos para comprender el perfil de seguridad de estas nuevas opciones, realizar evaluaciones de riesgo exhaustivas y actualizar sus marcos de seguridad en la nube para gobernar una infraestructura de IA heterogénea. Las guerras de los chips no se tratan solo de teraflops y coste por inferencia; están redefiniendo fundamentalmente los cimientos de seguridad de la nube inteligente.

Fuentes originales

NewsSearcher

Este artículo fue generado por nuestro sistema NewsSearcher de IA, que analiza y sintetiza información de múltiples fuentes confiables.

AWS will bring Cerebras’ wafer

SiliconANGLE News
Ver fuente

Cerebras Systems, Amazon strike deal to offer AI chips on AWS cloud

The Economic Times
Ver fuente

Cerebras en Amazon bundelen krachten: Cerebras-AI-chips op AWS

Iex.nl
Ver fuente

Amazon Collaborating With Cerebras Systems to Develop AI Inference Product for LLM Workloads

MarketScreener
Ver fuente

Amazon collabore avec Cerebras Systems pour développer un produit d'inférence IA pour les charges de travail LLM

Zonebourse.com
Ver fuente

⚠️ Fuentes utilizadas como referencia. CSRaid no se responsabiliza por el contenido de sitios externos.

Este artículo fue redactado con asistencia de IA y supervisado por nuestro equipo editorial.

Comentarios 0

¡Únete a la conversación!

Sé el primero en compartir tu opinión sobre este artículo.