En Estados Unidos, una revolución silenciosa está transformando la interacción de los ciudadanos con su gobierno, pero los profesionales de la ciberseguridad alertan sobre el vacío de seguridad en su núcleo. Impulsada por promesas de mayor eficiencia y disponibilidad 24/7, las administraciones estatales y locales están integrando inteligencia artificial—especialmente modelos de lenguaje (LLM) y agentes conversacionales—en algunos de sus flujos de trabajo más sensibles. Esta adopción acelerada, sin embargo, se produce sin los marcos de seguridad, pruebas de intrusión (red-teaming) y transparencia pública que exigen despliegues tan críticos, creando lo que los expertos describen como un mosaico de sistemas vulnerables y expuestos a explotación.
La primera línea de este cambio es visible en la seguridad pública. El Departamento de Policía de Akron, en Ohio, ha comenzado a utilizar un sistema de IA para atender llamadas no urgentes. Aunque se presenta como una herramienta para liberar a operadores humanos para verdaderas emergencias, la implementación plantea interrogantes de seguridad inmediatos. ¿Cómo se prueba la IA contra ataques de inyección de prompts que podrían manipular sus respuestas? ¿Qué salvaguardas evitan que sea manipulada mediante ingeniería social para revelar información sensible sobre operaciones policiales o ciudadanos? El sistema se interconecta directamente con los flujos de trabajo de despacho, creando un puente potencial para que un atacante pase de una simple llamada telefónica a sistemas backend más críticos. Sin pruebas adversarias rigurosas específicas para contextos de seguridad pública, dicha IA se convierte en un pasivo.
Esta tendencia se extiende más allá de los servicios de emergencia hasta los propios portales que los ciudadanos usan para acceder a beneficios e información gubernamental. En Alaska, las autoridades estatales evalúan una gran reforma con IA para 'myAlaska', el portal centralizado de más de 100 servicios estatales. El proyecto se describe como una incursión en 'territorio inexplorado', una frase que debería activar alertas para cualquier profesional de seguridad. Integrar IA generativa en un portal que maneja datos fiscales, licencias de pesca y solicitudes de beneficios multiplica exponencialmente la superficie de ataque. Los riesgos van desde la filtración de datos mediante prompts cuidadosamente diseñados que engañan a la IA para que revele información de otros usuarios, hasta la generación de documentos oficiales fraudulentos, o la manipulación de la IA para denegar servicios o dirigir mal a los ciudadanos.
Las preocupaciones de la comunidad de seguridad ahora resuenan en el Congreso. Se ha presentado un proyecto de ley específicamente dirigido a prevenir estafas con inteligencia artificial, lo que refleja una creciente conciencia legislativa sobre el uso malicioso de la tecnología. Simultáneamente, un grupo bipartidista de senadores ha dado la voz de alarma públicamente, exigiendo respuestas a las agencias federales sobre las implicaciones de seguridad de la integración de IA en la infraestructura pública. Este escrutinio político subraya que el problema ya no es teórico; es un desafío apremiante de gobernanza y seguridad nacional.
Desde una perspectiva técnica de seguridad, la apuesta por la IA en el sector público introduce varios vectores de amenaza críticos:
- Superficie de Ingeniería Social Ampliada: Los chatbots de IA en sitios gubernamentales se convierten en objetivos de alto valor para ingenieros sociales. Los atacantes pueden sondearlos indefinidamente para mapear sus límites de conocimiento, descubrir funcionalidades ocultas o extraer remanentes de datos de entrenamiento, información que luego puede usarse para crear campañas de phishing más efectivas contra ciudadanos o empleados públicos.
- Inyección de Prompts y Exfiltración de Datos: A diferencia del software tradicional con entradas fijas, los LLM son susceptibles a la inyección de prompts. Un usuario malicioso podría enviar un prompt disfrazado de consulta ciudadana que instruya a la IA para buscar en su base de conocimiento información personal identificable (PII), datos gubernamentales propietarios o vulnerabilidades del sistema, y formatear la salida de manera aparentemente benigna.
- Integridad del Sistema y Ruptura de la Cadena de Confianza: Cuando a un asistente de IA se le otorgan permisos para consultar bases de datos, enviar formularios o activar procesos, una interacción comprometida puede llevar a la corrupción de datos, transacciones fraudulentas o denegación de servicio. La IA actúa como un endpoint API no protegido hacia sistemas administrativos centrales.
- Falta de Auditabilidad y Responsabilidad: La naturaleza probabilística de la IA generativa hace que la auditoría de seguridad tradicional basada en logs sea insuficiente. Puede ser difícil reconstruir por qué una IA dio un consejo específico o realizó una acción, complicando la respuesta a incidentes y las investigaciones forenses tras una brecha.
La causa principal de este patrón de despliegue riesgoso es una discordancia fundamental en las prioridades. Los equipos de contratación e innovación cívica se miden por las ganancias de eficiencia y las métricas de satisfacción ciudadana. Los equipos de ciberseguridad, a menudo con pocos recursos en la administración, son incorporados tarde en el proceso, si es que lo son, y se ven obligados a asegurar sistemas construidos sin principios de seguridad por diseño. También existe una ausencia flagrante de líneas de base de seguridad federales o estándar del sector para los despliegues de IA en el sector público.
De cara al futuro, la comunidad de ciberseguridad debe abogar por protocolos de seguridad obligatorios antes de que estos despliegues entren en funcionamiento. Estos deben incluir: simulación adversaria integral (red teaming) adaptada a los casos de uso del sector público; sanitización estricta de entradas/salidas y filtrado de contenido; principios de confianza cero aplicados a los privilegios de acceso de la IA; y planes claros de respuesta a incidentes para fallos específicos de la IA. Además, la transparencia pública sobre las capacidades y limitaciones de estos sistemas no es solo un derecho cívico, sino una necesidad de seguridad: un público informado es menos susceptible a las estafas facilitadas por IA.
La carrera por implementar IA en el gobierno no se está desacelerando. La pregunta para los líderes de ciberseguridad es si se posicionarán como guardianes que aseguran un paso seguro, o como respondedores limpiando las brechas inevitables. La seguridad de los servicios públicos fundamentales—desde la asistencia del 911 hasta los portales de beneficios—depende de que se equilibre correctamente esta ecuación hoy.

Comentarios 0
Comentando como:
¡Únete a la conversación!
Sé el primero en compartir tu opinión sobre este artículo.
¡Inicia la conversación!
Sé el primero en comentar este artículo.