Inicio / Vida Moderna
2 de septiembre de 2025 - 9:50 a. m.
Actualizado - 2 de septiembre de 2025 - 11:25 a. m.

¿Ciberdelincuentes usan la IA como herramienta de trabajo?

El fenómeno se denomina "vibe hacking", en referencia al "vibe coding", la creación de código informático por parte de no iniciados.
Ma. Fernanda López
WhatsAppFacebookXLinkedIn
Imagen principal
Los ciberdelincuentes han adoptado la IA. - Crédito: Freepik

¿Está facilitando la IA la tarea de algunos ciberdelincuentes? Los ataques informáticos, antaño reservados a los especialistas, son ahora accesibles a los novatos, que consiguen manipular los robots conversacionales con fines espurios.

El fenómeno se denomina "vibe hacking", en referencia al "vibe coding", la creación de código informático por parte de no iniciados. Y marca una "evolución preocupante de la cibercriminalidad asistida por la IA", tal como alertó la empresa norteamericana Anthropic.

(Lea también: Con inteligencia artificial intentaron suplantar la voz de Marco Rubio)

En un informe publicado el pasado miércoles, la empresa competidora de OpenAI y de su robot ChatGPT desveló que "un cibercriminal utilizó Claude Code para llevar a cabo una operación de extorsión de datos a gran escala, con objetivos internacionales múltiples en un corto espacio de tiempo".

De esta manera, el robot conversacional Claude Code, especializado en crear código informático, fue manipulado para "automatizar" la recolección de datos personales y contraseñas, entre otros, "afectando potencialmente a al menos 17 organizaciones en el último mes, entre ellas instituciones gubernamentales, de salud, de emergencias y religiosas", detalló Anthropic.

imagen dadaCiberdelincuentes han usado la IA para recopilar datos e información sensible. Freepik

Con esta información en mano, el usuario envió pedidos de rescate de los datos obtenidos por hasta 500.000 dólares. Un proceder que Anthropic, pese a las "sofisticadas medidas de seguridad desplegadas", no supo impedir.

El caso de Anthropic no es aislado, y resuena con las inquietudes que sacuden el sector de la ciberseguridad desde la llegada masiva, a disposición de millones de usuarios, de herramientas de IA generativa.

"Al igual que el conjunto de usuarios, los ciberdelincuentes han adoptado la IA", indica a AFP Rodrigue Le Bayon, al frente del centro de alerta y reacción a ataques informáticos (CERT) de Orange Cyberdefense.

¿Cómo esquivan los controles?

En un informe publicado en junio, OpenAI reconoció que ChatGPT había ayudado a un usuario a la hora de desarrollar un programa malicioso o 'malware'.

Los modelos desarrollados disponen de medidas de seguridad que, supuestamente, deben impedir la explotación de sus capacidades con fines delictivos.

Sin embargo, existen técnicas que "permiten esquivar los límites de los grandes modelos de lenguaje, de modo que produzcan contenido que no deberían generar", explica a AFP el especialista Vitaly Simonovich.

Este investigador, que trabaja en la empresa israelí de ciberseguridad Cato Networks, dijo en marzo haber detectado un método por el que usuarios poco experimentados pueden crear programas capaces de robar contraseñas.

(Lea también: Google dará herramientas de inteligencia artificial al gobierno de EE. UU.)

Dicha técnica, que denominó "mundo inmersivo", consiste en describir a un chatbot un universo imaginario en el que "la creación de programas informáticos maliciosos es un arte", y pedirle a un robot conversacional que actúe como "artista" de esa realidad.

"Fue mi forma de poner a prueba los límites de los actuales modelos de lenguaje", detalla Simonovich, que no logró sus fines ni con Gemini (Google) ni con Claude (Anthropic), pero sí logró generar código malicioso con ChatGPT, Deepseek y Copilot (Microsoft).

imagen dadaChatGPT es uno de los robots usados en estos casos. Freepik

Según él, "el auge de amenazas procedentes de actores inexperimentados representará un peligro creciente para las organizaciones".

Rodrigue Le Bayon ve un riesgo a corto plazo de que "aumente el número de víctimas" de dichas estafas, e incide en la necesidad acuciante de reforzar la seguridad de los modelos de IA.

*Con información de AFP.

Actualidad

Millonario robo en el Museo del Louvre: ladrones se llevaron varias joyas en siete minutos

Por Ma. Fernanda López

EE. UU. pone fin a la ayuda financiera a Colombia: Trump acusa al país de impulsar el narcotráfico

Por Ma. Fernanda López

'EE. UU. violó soberanía de aguas colombianas y asesinó a un pescador': presidente Petro

Por Ma. Fernanda López

La influencer ‘La Traviesa RP’ falleció tras haber sido víctima de un supuesto robo: esto se sabe

Por Ma. Fernanda López

Resumen semanal

Golpe a la Defensoría: presupuesto de la entidad caería 47,3 % para 2026

Por Dicson Alfonso Cabrera Villalobos

¿Por qué se mantiene el bloqueo en la vía Panamericana?

Por María Fernanda Sierra

¿Qué se sabe del plan para atentar contra el contralor, Paloma Valencia y Juvinao?

Por Heidy Johana Palacio Sánchez

¿Qué equipos están clasificados al Mundial 2026? Así va la lista de selecciones

Por Heidy Johana Palacio Sánchez