Estas son las nuevas formas de estafa digital; la inteligencia artificial se volvió cómplice
La inteligencia artificial abrió la puerta a estafas tan reales que confunden hasta a expertos: deepfakes, fraudes del CEO y engaños en vivo.

Por años, las señales de advertencia en un correo de phishing eran obvias: errores gramaticales, un remitente sospechoso o un tono de voz genérico. Hoy, esa era de la torpeza digital ha terminado y es muy difícil reconocer qué es real y qué no.
El mismo poder de la inteligencia artificial generativa (IA) que crea obras de arte y eficientes códigos de programación ha sido secuestrado por el crimen organizado, que lo utiliza para construir un nuevo ecosistema de estafas, tan personalizado y convincente, que las defensas tradicionales están colapsando.

Plataformas como ChatGPT, Gemini o Perplexity son las más reconocidas de la IA generativa. Crédito: Canva
El riesgo ya no es un correo electrónico mal escrito; es una videollamada perfectamente falsificada de su propio jefe pidiendo una transferencia urgente.
La realidad ahora es que el panorama del fraude ha cambiado de forma radical en el último año, y las conclusiones de reportes de empresas como Gen, Veriff y Stripe no dejan lugar a dudas: la era del estafador aficionado ha sido reemplazada por la del cibercriminal sofisticado.
(Vea también: La revolución silenciosa de la educación en Colombia: crece un 55% la formación virtual mientras cae la presencial)
La clonación en vivo: el fraude deepfake en tiempo real
La amenaza más resonante para 2025 es, sin duda, la capacidad de generar contenido falso en vivo. El fraude deepfake ha pasado de ser un video pregrabado a una interacción en tiempo real, donde el estafador manipula su apariencia y voz durante una videollamada.
Los reportes de la industria, como el de Veriff, lo califican como la principal preocupación de seguridad y las cifras lo confirman. En los intentos de verificación de identidad, se observa un aumento dramático en los ataques de adversario que utilizan deepfakes. La implicación es aterradora: la verificación ya no se trata de lo que la cámara muestra, sino de lo que es real.
Una muestra de la tecnología Deep Fake que transforma un actor en Morgan Freeman, a cargo de la empresa Diep Nep
— elhacker.NET (@elhackernet) December 14, 2022
➡️ No es Morgan Freeman, es realidad sintética pic.twitter.com/9xtk7xqy3q
Esta sofisticación ha dado un nuevo aire al temido fraude del CEO. El método clásico, donde un empleado recibe un correo suplantando a un directivo, ahora incluye una reunión virtual de urgencia. El impostor, con la cara y voz clonadas por IA, se presenta ante el empleado, responde preguntas improvisadas y, bajo la presión de la autenticidad visual, logra la transferencia.
Los atacantes están dejando atrás las campañas masivas para enfocarse en engaños altamente personalizados, potenciados por inteligencia artificial.
Siggi Stefnisson, CTO de ciberseguridad
(No se pierda: Los ‘bots’ que podrían cambiar la historia de Spotify; la aplicación, bajo la lupa judicial)
El fraude invisible: identidad sintética y spear phishing escalar
Pero el engaño visual es solo una parte de la ecuación. La IA ha revolucionado la creación de identidades y la automatización del engaño textual, volviendo obsoleto el filtro de spam tradicional.
Así las cosas, en el frente del fraude financiero, la identidad sintética es la plaga de más rápido crecimiento. Usando la IA, los criminales pueden combinar fragmentos de datos reales y generar identidades ficticias que pasan por los controles Know Your Customer (KYC) para abrir cuentas bancarias o solicitar créditos. El “individuo” nunca existió, pero la deuda sí.
Paralelamente, la IA generativa está detrás del aumento del 466 % en las denuncias de phishing, según datos recopilados por Gen. Las máquinas ahora escriben correos electrónicos y mensajes de texto (smishing) sin errores y con relevancia contextual.
🚨 ¡Alerta de smishing! 🚨
— PDI_Antofagasta (@PDI_Antofagasta) November 7, 2025
¿Recibes un mensaje tentador y te dan ganas de hacer clic? ¡ALTO! 🛑 ¡Es una trampa!
⚠️ Smishing: Mensajes falsos diseñados para robar datos bancarios y vaciar tus cuentas. ¡No caigas!#Cibercrimen #Antifraude #Smishing pic.twitter.com/AMb6vRuwSL
La IA analiza perfiles en redes sociales, historial laboral o intereses recientes para crear una narrativa que solo tiene sentido para la víctima. Un mensaje que menciona su proyecto más reciente, simulando ser un colega o proveedor, es infinitamente más peligroso que un simple aviso genérico del “banco”.
En este panorama, la defensa no es solo tecnológica, sino humana. La recomendación de los expertos es simple, pero vital: ante cualquier solicitud urgente o sensible que llegue por un medio digital, verifique siempre la fuente a través de un canal alternativo y de confianza.
