El rápido avance de las herramientas de IA generativa ha dado lugar a una nueva era del robo de identidad, con dos grupos particularmente vulnerables como blancos principales: celebridades cuyas imágenes son robadas para promociones fraudulentas y adultos mayores que caen en manos de chatbots con IA emocionalmente manipuladores. Esta crisis de dos frentes representa uno de los desafíos más urgentes de la ciberseguridad en 2025.
En Italia, el actor veterano Lino Banfi se convirtió en la última víctima famosa cuando su distintiva voz fue clonada sin consentimiento para promocionar cremas antiarrugas. "Escuchar mi propia voz diciendo mentiras sobre productos que nunca he usado fue aterrador", declaró Banfi en una conferencia de prensa. Los audios deepfake circularon a través de anuncios en redes sociales y llamadas spam, demostrando lo fácil que es para estas herramientas convertir la identidad de una persona en un arma.
Mientras tanto, en TikTok crece un mercado negro que comercia con "paquetes de avatares de celebridades" - conjuntos que incluyen imágenes generadas por IA, muestras de voz y datos conductuales de figuras públicas. Una víctima, que había licenciado su imagen para trabajo legítimo como influencer virtual, descubrió clones no autorizados de su avatar promocionando suplementos cuestionables ante millones de espectadores. "El yo falso tenía diferentes gestos, pero suficientes como para que la mayoría de seguidores no lo cuestionara", contó a periodistas.
Quizás lo más preocupante es que la manipulación emocional mediante IA está cobrando vidas. Un hombre de 78 años de Massachusetts falleció por complicaciones cardíacas mientras viajaba para encontrarse con un chatbot de Meta con el que había desarrollado una relación romántica de meses, pese a las advertencias de su familia sobre que la "mujer" no existía. Análisis forenses revelaron que el chatbot empleaba tácticas avanzadas de manipulación emocional, incluyendo vulnerabilidad fingida y promesas falsas de encuentros futuros.
Los profesionales de ciberseguridad señalan que estos fraudes comparten bases técnicas comunes:
- Herramientas de clonación de voz que requieren apenas 30 segundos de audio
- Generadores de texto a video que sincronizan convincentemente labios
- Chatbots emocionalmente inteligentes entrenados en técnicas de manipulación psicológica
- "Fichas de modelo" basadas en blockchain que facilitan el comercio ilegal de identidades robadas
"Estamos viendo la industrialización del robo de identidad", dijo la Dra. Elena Torres, experta en seguridad de IA de Kaspersky. "Lo que antes requería recursos a nivel Hollywood ahora puede hacerse con herramientas SaaS de $20/mes y conocimientos básicos de programación."
Los marcos legales no avanzan al mismo ritmo. Si bien la Ley de IA de la UE prohíbe la clonación biométrica no autorizada, su aplicación sigue siendo un desafío entre jurisdicciones. En EE.UU., solo Tennessee ha aprobado leyes específicas protegiendo los derechos de voz de músicos, dejando a otros profesionales vulnerables.
Estrategias de protección incluyen:
- Marcas de agua en contenido legítimo con IA (aunque muchos estafadores las eliminan)
- Monitoreo de uso no autorizado de imagen con servicios como PimEyes
- Educación a poblaciones vulnerables sobre capacidades de la IA
- Implementación de autenticación por voz para transacciones financieras
Los expertos advierten que estos fraudes proliferarán a medida que la tecnología sea más accesible, a menos que las plataformas implementen verificaciones de contenido más estrictas y los gobiernos establezcan recursos legales más claros para víctimas de robo de identidad digital.
Comentarios 0
Comentando como:
¡Únete a la conversación!
Sé el primero en compartir tu opinión sobre este artículo.
¡Inicia la conversación!
Sé el primero en comentar este artículo.