El estetoscopio, símbolo de autoridad médica, está siendo reemplazado silenciosamente por el algoritmo. Un reciente estudio de Harvard ha confirmado lo que muchos en el mundo tecnológico sospechaban: la inteligencia artificial puede superar a los médicos humanos en el diagnóstico de emergencias. El estudio, que analizó miles de casos de salas de urgencias, encontró que los modelos de IA identificaban condiciones potencialmente mortales como sepsis, accidentes cerebrovasculares e infartos con mayor precisión y velocidad que los médicos certificados. Pero este avance plantea una pregunta escalofriante para la comunidad de ciberseguridad: cuando el algoritmo se equivoca, ¿quién va a la cárcel?
Esto no es hipotético. En una sala de emergencias canadiense, la Dra. Sarah Mitchell (nombre cambiado por privacidad) ha estado utilizando un sistema de triaje asistido por IA durante los últimos seis meses. 'El sistema señala a los pacientes con alto riesgo de deterioro', explica. 'Ha detectado cosas que yo podría haber pasado por alto debido a la fatiga o la sobrecarga cognitiva. Pero también me preocupan los datos. ¿Qué pasa si alguien envenena el conjunto de entrenamiento? ¿Qué pasa si un adversario introduce un sesgo que haga que la IA pase por alto un ataque cardíaco en un grupo demográfico específico?'
Las preocupaciones de la Dra. Mitchell no son paranoicas. La naturaleza de 'caja negra' de los modelos de aprendizaje profundo significa que ni siquiera los desarrolladores pueden explicar siempre por qué una IA realizó un diagnóstico específico. En un entorno hospitalario, esta falta de explicabilidad es una vulnerabilidad de seguridad. Si un actor malicioso puede aplicar ingeniería inversa al modelo o inyectar ejemplos adversarios, podría hacer que la IA diagnostique erróneamente a los pacientes de forma sistemática, lo que tendría consecuencias catastróficas.
Mientras tanto, en la India, un hospital de Chennai está pionero en un uso diferente de la IA: reducir la exposición a la radiación en la detección del cáncer de pulmón. Utilizando una red neuronal convolucional entrenada a medida, el hospital ha reducido la dosis de radiación en las tomografías computarizadas hasta en un 60%, manteniendo la precisión diagnóstica. Esto es un logro significativo para la seguridad del paciente, pero introduce una nueva superficie de ataque. El sistema de IA debe recibir datos de imágenes limpios y sin alteraciones. Un ataque de intermediario en el canal de imágenes podría alterar los datos de píxeles, haciendo que la IA clasifique erróneamente un nódulo maligno como benigno.
La industria de la salud tiene notoriamente poca inversión en ciberseguridad. Según un informe de 2024 del Ponemon Institute, las organizaciones sanitarias gastan solo el 6% de su presupuesto de TI en seguridad, en comparación con el 12% en finanzas. A medida que la IA se convierte en la columna vertebral de los diagnósticos, esta brecha se convierte en una cuestión de vida o muerte. La cuestión de la responsabilidad es igualmente turbia. Si un médico se basa en un diagnóstico de IA que resulta ser incorrecto, ¿es responsable el médico? ¿El hospital? ¿El proveedor de software? ¿Los anotadores de datos que etiquetaron las imágenes de entrenamiento?
Los expertos legales están divididos. En Estados Unidos, la FDA aún no ha clasificado la IA diagnóstica como un dispositivo médico, lo que deja un vacío regulatorio. En Canadá, las autoridades sanitarias provinciales se apresuran a crear directrices. La Ley de IA de la Unión Europea, que entró en vigor en 2025, clasifica la IA médica como de 'alto riesgo' y exige supervisión humana, pero no especifica la responsabilidad en caso de una violación de seguridad.
Para el profesional de ciberseguridad, el mensaje es claro: la IA en la atención médica no es solo una historia de tecnología, sino una historia de seguridad. Los mismos modelos que salvan vidas pueden ser armados. Los mismos datos que entrenan algoritmos pueden ser envenenados. Las mismas redes que conectan hospitales pueden ser violadas. Mientras celebramos la destreza diagnóstica de la IA, también debemos endurecer la infraestructura que la respalda. El dilema no es si la IA puede superar a los médicos en el diagnóstico, sino si podemos asegurar el sistema que confía en ella.

Comentarios 0
Comentando como:
¡Únete a la conversación!
Sé el primero en compartir tu opinión sobre este artículo.
¡Inicia la conversación!
Sé el primero en comentar este artículo.