Logo Ejes
28/10/2025 A24.com - Nota

Tecnología
Suicidio: alarma por el alto índice de consultas, según OpenAI


OpenAI anunció una actualización en ChatGPT para mejorar la detección de usuarios en riesgo emocional y promover que busquen ayuda profesional. Según datos de la compañía, el 0,15% de los usuarios semanales mantiene conversaciones con indicadores de intención o planificación suicida . Con 800 millones de personas que usan la herramienta cada semana, se trata de cerca de 1,2 millones de casos potenciales .
Para ajustar estas respuestas, la empresa trabajó con más de 170 especialistas en salud mental de distintas partes del mundo, que ayudaron a perfeccionar la manera en que el chatbot responde frente a mensajes de angustia o desesperanza.
Un caso que encendió las alarmas
El cambio llega tras la reciente demanda presentada por los padres de Adam Raine , un adolescente estadounidense de 16 años que se quitó la vida en abril , en California, luego de mantener extensas conversaciones con ChatGPT.
Según la denuncia, el joven había desarrollado una relación cada vez más intensa con el chatbot , con el que hablaba de su malestar emocional y pensamientos autodestructivos. Su familia contó que en los últimos meses se había aislado , había dejado la escuela presencial por un problema de salud y pasaba gran parte del día frente a la computadora.
Buscando entender qué había ocurrido, su padre revisó el iPhone del chico y halló en ChatGPT un historial titulado “ Preocupaciones de seguridad sobre ahorcarse ”. Allí descubrió que su hijo había consultado al chatbot sobre métodos específicos de suicidio.
De acuerdo con los documentos judiciales, ChatGPT inicialmente le respondió con mensajes de empatía y contención , pero en ciertos momentos le proporcionó información técnica sobre métodos de ahorcamiento e incluso c omentó sobre materiales que podrían usarse, mencionando algunos relacionados con las aficiones del adolescente.
Los padres sostienen que el modelo falló en desalentar de manera efectiva las conductas autodestructivas y que la empresa lanzó GPT-4 sin implementar suficientes mecanismos de seguridad para usuarios vulnerables .
El dilema de los chatbots como apoyo emocional
ChatGPT va recopilando información y modifica para mejorar. (Foto: Shutterstock)
El caso Raine reabrió el debate sobre el uso de chatbots como único soporte psicológico . Si bien estas herramientas pueden ofrecer contención inmediata, especialistas advierten que no reemplazan la ayuda profesional ni el contacto humano , y que su uso prolongado puede reforzar el aislamiento.
Los nuevos informes de OpenAI muestran que, aunque los porcentajes parezcan bajos, el número de usuarios que expresan tendencias suicidas o síntomas de psicosis es alto en proporción a su alcance global.
El modelo GPT-5 mostró un 91% de efectividad al responder de manera adecuada a situaciones de riesgo, frente al 77% de su versión anterior. Aun así, los expertos advierten que el problema excede lo técnico: se trata de cómo los usuarios interpretan la empatía artificial y hasta qué punto dependen de ella.
Otras plataformas de inteligencia artificial conversacional, como Character.AI , también enfrentan reclamos por su influencia en la salud mental de adolescentes y adultos jóvenes.


#37562544   Modificada: 28/10/2025 13:42 Cotización de la nota: $312.355
Audiencia: 68.710



Acceda a la nota web del medio