Periodista Digital

Datos obtenidos por OpenAI, creador de ChatGPT, sugieren que más de un millón de personas que utilizan su chatbot de inteligencia artificial (IA) generativa mostraron interés en el suicidio.
En una entrada de blog publicada el lunes, la empresa estadounidense de IA estimó que aproximadamente el 0,15 % de los usuarios tienen "conversaciones que incluyen indicadores explícitos de posible planificación o intención suicida".
Un bot mundialmente popular
Según OpenAI, más de 800 millones de personas usan ChatGPT cada semana, por lo que su estimación se traduce en aproximadamente 1,2 millones de usuarios.
La empresa también estima que aproximadamente el 0,07 % de los usuarios activos semanales, un poco menos de 600.000 personas, muestran posibles signos de emergencias de salud mental relacionadas con psicosis o manía.
El problema pasó a primer plano después de que el adolescente californiano Adam Raine se quitara la vida a principios de este año. Sus padres presentaron una demanda contra ChatGPT porque le proporcionó consejos específicos sobre cómo hacerlo.

ChatGPT es un bot ampliamente utilizado en el mundo. Canva.
¿Cómo respondió la compañía?
Desde entonces, OpenAI ha mejorado los controles parentales para ChatGPT e introducido otras medidas de seguridad, como un mayor acceso a líneas directas de crisis, el desvío automático de conversaciones delicadas a modelos más seguros y recordatorios sutiles para que los usuarios tomen descansos durante sesiones prolongadas.
OpenAI también ha actualizado su chatbot ChatGPT para reconocer y responder mejor a los usuarios que experimentan emergencias de salud mental, y está trabajando con más de 170 profesionales de la salud mental para reducir significativamente las respuestas problemáticas.
Le puede interesar:
Una ministra creada con inteligencia artificial “está embarazada”, ¿quién es?
No es solo ChatGPT
A finales de octubre de 2024, otro caso conmocionó a Estados Unidos. Un adolescente llamado Sewell Setzer, de 14 años, se quitó la vida tras enamorarse de un chatbot de Daenerys Targaryen (personaje de la famosa serie Juego de Tronos).
La familia del joven demandó a la empresa Character.AI, que ofrece servicios de inteligencia artificial inspirados en personajes populares. Según los padres, Setzer expresó intenciones de atentar contra su vida al bot, pero este no le ofreció la ayuda necesaria para evitarlo.
En una de las conversaciones, el bot le preguntó a Setzer si “realmente había estado pensando en suicidarse” y si “tenía un plan” para hacerlo. Cuando el joven le respondió que no sabía si funcionaría, la IA escribió: “no hables así, esa es una buena razón para no hacerlo”, afirma la demanda.
Además, el adolescente sostenía conversaciones de índole romántica y sexual con el personaje de Juego de Tronos y otros chatbots de la empresa, que ofrece ‘servicios personalizados’ a los usuarios.
Le puede interesar:
EE. UU. firma acuerdo por USD $ 80.000 millones para IA y energía nuclear
*Con información de AFP.
Actualidad

¿Quién es Douglas Chabbott, el nuevo amor de Sofía Vergara?
Por Carolina López
16 de diciembre de 2025

EE. UU. confirma bombardeo letal contra embarcaciones vinculadas al narcotráfico: ataques continuarán
Por Dicson Alfonso Cabrera Villalobos
16 de diciembre de 2025

The Best FIFA 2025: ¿Quiénes son los nuevos dueños del fútbol mundial?
Por Heidy Johana Palacio Sánchez
16 de diciembre de 2025

Aguinaldo Boyacense 2025: Tunja se convierte en el corazón de la Navidad en Colombia
Por Dicson Alfonso Cabrera Villalobos
16 de diciembre de 2025
Resumen semanal

Tenga cuidado, mujer denuncia presunto hurto en visita técnica de la ETB
Por Camilo Cruz
15 de diciembre de 2025

Millonaria multa de la Superintendencia de Sociedades agrava la crisis del Deportivo Pereira
Por Heidy Johana Palacio Sánchez
15 de diciembre de 2025

La temperatura de la economía colombiana se mide en el Pacífico
Por Angélica Gómez
15 de diciembre de 2025

José Antonio Kast: ¿Quién es el presidente electo que promete un giro conservador en Chile?
Por Dicson Alfonso Cabrera Villalobos
15 de diciembre de 2025