Periodista Digital
Más de un millón de usuarios le hablan a ChatGPT sobre quitarse la vida, reveló la compañía


Datos obtenidos por OpenAI, creador de ChatGPT, sugieren que más de un millón de personas que utilizan su chatbot de inteligencia artificial (IA) generativa mostraron interés en el suicidio.
En una entrada de blog publicada el lunes, la empresa estadounidense de IA estimó que aproximadamente el 0,15 % de los usuarios tienen "conversaciones que incluyen indicadores explícitos de posible planificación o intención suicida".
Un bot mundialmente popular
Según OpenAI, más de 800 millones de personas usan ChatGPT cada semana, por lo que su estimación se traduce en aproximadamente 1,2 millones de usuarios.
La empresa también estima que aproximadamente el 0,07 % de los usuarios activos semanales, un poco menos de 600.000 personas, muestran posibles signos de emergencias de salud mental relacionadas con psicosis o manía.
El problema pasó a primer plano después de que el adolescente californiano Adam Raine se quitara la vida a principios de este año. Sus padres presentaron una demanda contra ChatGPT porque le proporcionó consejos específicos sobre cómo hacerlo.

ChatGPT es un bot ampliamente utilizado en el mundo. Canva.
¿Cómo respondió la compañía?
Desde entonces, OpenAI ha mejorado los controles parentales para ChatGPT e introducido otras medidas de seguridad, como un mayor acceso a líneas directas de crisis, el desvío automático de conversaciones delicadas a modelos más seguros y recordatorios sutiles para que los usuarios tomen descansos durante sesiones prolongadas.
OpenAI también ha actualizado su chatbot ChatGPT para reconocer y responder mejor a los usuarios que experimentan emergencias de salud mental, y está trabajando con más de 170 profesionales de la salud mental para reducir significativamente las respuestas problemáticas.
Le puede interesar:
Una ministra creada con inteligencia artificial “está embarazada”, ¿quién es?
No es solo ChatGPT
A finales de octubre de 2024, otro caso conmocionó a Estados Unidos. Un adolescente llamado Sewell Setzer, de 14 años, se quitó la vida tras enamorarse de un chatbot de Daenerys Targaryen (personaje de la famosa serie Juego de Tronos).
La familia del joven demandó a la empresa Character.AI, que ofrece servicios de inteligencia artificial inspirados en personajes populares. Según los padres, Setzer expresó intenciones de atentar contra su vida al bot, pero este no le ofreció la ayuda necesaria para evitarlo.
En una de las conversaciones, el bot le preguntó a Setzer si “realmente había estado pensando en suicidarse” y si “tenía un plan” para hacerlo. Cuando el joven le respondió que no sabía si funcionaría, la IA escribió: “no hables así, esa es una buena razón para no hacerlo”, afirma la demanda.
Además, el adolescente sostenía conversaciones de índole romántica y sexual con el personaje de Juego de Tronos y otros chatbots de la empresa, que ofrece ‘servicios personalizados’ a los usuarios.
Le puede interesar:
EE. UU. firma acuerdo por USD $ 80.000 millones para IA y energía nuclear
*Con información de AFP.
Actualidad

Noboa califica de “incoherente" a Petro y vuelve a poner en duda su misterioso viaje a Manta
Por Fernando Mojica

Con 'peros' se renovó la Misión de Verificación de la ONU
Por Katherine Vega

“Una lucha por la supervivencia”: el invierno agrava la crisis humanitaria en Ucrania
Por María Fernanda Sierra

Trump no planea ataques en Venezuela, pese a reportes
Por Carolina López Mantilla
Resumen semanal

¿Cómo se originó el huracán Melissa y por qué aumentó su fuerza?
Por María Fernanda Sierra

Policía apunta a la ‘Segunda Marquetalia’ como determinador del magnicidio de Miguel Uribe Turbay
Por Heidy Johana Palacio Sánchez

'Los hilos perdidos’: la nueva novela de Juliana Muñoz Toro que borda la memoria y la identidad
Por María Fernanda Sierra

Villavicencio se alista para el Torneo del Joropo con plan especial de movilidad
Por Carlos Grosso