Inicio / Vida Moderna

Estas son las nuevas formas de estafa digital; la inteligencia artificial se volvió cómplice

La inteligencia artificial abrió la puerta a estafas tan reales que confunden hasta a expertos: deepfakes, fraudes del CEO y engaños en vivo.

Estas son las nuevas formas de estafa digital; la inteligencia artificial se volvió cómplice
Las estafas digitales han tenido un aumento significativo en 2025. - Crédito: Canva

Por años, las señales de advertencia en un correo de phishing eran obvias: errores gramaticales, un remitente sospechoso o un tono de voz genérico. Hoy, esa era de la torpeza digital ha terminado y es muy difícil reconocer qué es real y qué no.

El mismo poder de la inteligencia artificial generativa (IA) que crea obras de arte y eficientes códigos de programación ha sido secuestrado por el crimen organizado, que lo utiliza para construir un nuevo ecosistema de estafas, tan personalizado y convincente, que las defensas tradicionales están colapsando.

Inteligencia artificial generativa

Plataformas como ChatGPT, Gemini o Perplexity son las más reconocidas de la IA generativa. Crédito: Canva

El riesgo ya no es un correo electrónico mal escrito; es una videollamada perfectamente falsificada de su propio jefe pidiendo una transferencia urgente.

La realidad ahora es que el panorama del fraude ha cambiado de forma radical en el último año, y las conclusiones de reportes de empresas como Gen, Veriff y Stripe no dejan lugar a dudas: la era del estafador aficionado ha sido reemplazada por la del cibercriminal sofisticado.

(Vea también: La revolución silenciosa de la educación en Colombia: crece un 55% la formación virtual mientras cae la presencial)

La clonación en vivo: el fraude deepfake en tiempo real

La amenaza más resonante para 2025 es, sin duda, la capacidad de generar contenido falso en vivo. El fraude deepfake ha pasado de ser un video pregrabado a una interacción en tiempo real, donde el estafador manipula su apariencia y voz durante una videollamada.

Los reportes de la industria, como el de Veriff, lo califican como la principal preocupación de seguridad y las cifras lo confirman. En los intentos de verificación de identidad, se observa un aumento dramático en los ataques de adversario que utilizan deepfakes. La implicación es aterradora: la verificación ya no se trata de lo que la cámara muestra, sino de lo que es real.

Esta sofisticación ha dado un nuevo aire al temido fraude del CEO. El método clásico, donde un empleado recibe un correo suplantando a un directivo, ahora incluye una reunión virtual de urgencia. El impostor, con la cara y voz clonadas por IA, se presenta ante el empleado, responde preguntas improvisadas y, bajo la presión de la autenticidad visual, logra la transferencia.

Los atacantes están dejando atrás las campañas masivas para enfocarse en engaños altamente personalizados, potenciados por inteligencia artificial.

Siggi Stefnisson, CTO de ciberseguridad

(No se pierda: Los ‘bots’ que podrían cambiar la historia de Spotify; la aplicación, bajo la lupa judicial)

El fraude invisible: identidad sintética y spear phishing escalar

Pero el engaño visual es solo una parte de la ecuación. La IA ha revolucionado la creación de identidades y la automatización del engaño textual, volviendo obsoleto el filtro de spam tradicional.

Así las cosas, en el frente del fraude financiero, la identidad sintética es la plaga de más rápido crecimiento. Usando la IA, los criminales pueden combinar fragmentos de datos reales y generar identidades ficticias que pasan por los controles Know Your Customer (KYC) para abrir cuentas bancarias o solicitar créditos. El “individuo” nunca existió, pero la deuda sí.

Paralelamente, la IA generativa está detrás del aumento del 466 % en las denuncias de phishing, según datos recopilados por Gen. Las máquinas ahora escriben correos electrónicos y mensajes de texto (smishing) sin errores y con relevancia contextual.

La IA analiza perfiles en redes sociales, historial laboral o intereses recientes para crear una narrativa que solo tiene sentido para la víctima. Un mensaje que menciona su proyecto más reciente, simulando ser un colega o proveedor, es infinitamente más peligroso que un simple aviso genérico del “banco”.

En este panorama, la defensa no es solo tecnológica, sino humana. La recomendación de los expertos es simple, pero vital: ante cualquier solicitud urgente o sensible que llegue por un medio digital, verifique siempre la fuente a través de un canal alternativo y de confianza.

TEMAS RELACIONADOS
Estafa|Fraude|Inteligencia Artificial
Ver otras etiquetas
Cargando...
metricool pixel
Las nuevas modalidades de estafa con IA, cómo reconocerlas y evitar caer | Minuto60