
Las estafas impulsadas por Inteligencia Artificial (IA) están creciendo a una velocidad sin precedentes. Hoy, los delincuentes tienen la capacidad de clonar voces, generar rostros falsos y realizar videollamadas deepfake en tiempo real para engañar a sus víctimas y robar sumas millonarias.
Expertos en ciberseguridad, como los de la firma ESET, alertan que estas herramientas tecnológicas —antes reservadas exclusivamente para laboratorios de alta complejidad— hoy pueden utilizarse desde aplicaciones gratuitas y requieren apenas unos segundos de audio para operar.
Uno de los mayores temores de las autoridades es la facilidad para suplantar la identidad de cualquier persona.
Un simple mensaje de voz de WhatsApp, un video de Instagram o una llamada grabada son datos suficientes para entrenar sistemas capaces de imitar el tono exacto de un individuo. El fenómeno ya encendió las alarmas de Interpol, que advierte cómo las redes criminales están multiplicando sus ataques.

El peligroso realismo de la clonación de voz
La clonación de voz se ha posicionado como el arma predilecta de los estafadores. Los motores actuales de IA pueden recrear no solo el tono, sino también la velocidad, las pausas y las muletillas características de una persona en tiempo récord.
El engaño: La víctima recibe un llamado de un supuesto familiar, amigo o jefe de trabajo solicitando una transferencia de dinero urgente.
En tiempo real: La sofisticación llegó a un punto en el que los sistemas pueden responder preguntas, improvisar en la conversación y adaptar el tono emocional en el momento.
Desde Kaspersky explican que esta combinación de tecnología avanzada y manipulación emocional convierte a estas estafas en el mayor riesgo digital de la actualidad.

Deepfakes: cuando la estafa llega por videollamada
La amenaza ya trascendió la barrera del audio. Los incidentes vinculados a videos deepfake (archivos manipulados mediante IA para que parezcan reales) aumentaron drásticamente, permitiendo simulaciones en vivo.
Uno de los casos corporativos más impactantes ocurrió recientemente en Hong Kong. Un empleado de la multinacional Arup participó en una videollamada donde creyó estar reunido con los directivos de su empresa, incluido el director financiero. Sin saberlo, todas las personas en la pantalla eran avatares generados por inteligencia artificial. Confiando en la «identidad» de sus jefes, el trabajador autorizó transferencias millonarias.
Fraudes románticos y «Pig Butchering 2.0»
Las estafas sentimentales también han evolucionado. Los especialistas denominan «pig butchering 2.0» (la táctica de «engordar al cerdo» antes de la estafa final) a la nueva modalidad donde los criminales utilizan rostros falsos generados por IA para interactuar en videollamadas con sus víctimas.
Al poder mostrar una cara y reaccionar en vivo, construyen vínculos emocionales mucho más sólidos y creíbles, logrando que la víctima invierta dinero en plataformas falsas. Los adultos mayores se encuentran entre los grupos más vulnerables a esta táctica.
Correos de Phishing indetectables
Durante años, la regla de oro para detectar un correo falso (phishing) era buscar errores ortográficos o traducciones extrañas. Eso ya es cosa del pasado.
Hoy, los modelos de lenguaje redactan textos impecables y estructurados, prácticamente indistinguibles de los correos reales enviados por bancos o entidades oficiales, lo que burla el radar de usuarios con altos conocimientos digitales.
El gran desafío de la prevención
Lo que más inquieta a los especialistas es la democratización del delito. En foros clandestinos de la Dark Web ya se comercializan kits completos para generar identidades falsas y campañas automatizadas de fraude a bajo costo. Para los expertos, el reto de los próximos años será desarrollar mecanismos de verificación tecnológica y educar a los ciudadanos para desconfiar, incluso, de lo que ven sus propios ojos.



