Logo Ejes
28/10/2025 Clarin.com - Nota

Más de medio millón de usuarios de ChatGPT muestran graves señales de problemas de salud mental

OpenAI detectó señales de manía, psicosis y pensamiento autolesivo en cientos de miles de usuarios. La compañía creó un panel de más de 170 expertos para mejorar las respuestas de la inteligencia artificial.

Más de medio millón de usuarios de ChatGPT muestran señales graves de salud mental. Foto: Reuters.
OpenAI advirtió que, cada semana, una fracción de usuarios de ChatGPT exhibe señales graves de problemas de salud mental . La empresa señaló que 0,07 por ciento de sus usuarios semanales muestran signo compatible con manía , psicosis o intención de quitarse la vida.
Al tomar la cifra de 800 millones de usuarios semanales mencionada por la compañía de Sam Altman , ese porcentaje equivale a aproximadamente 560.000 personas por semana.
Además, OpenAI informó en una publicación de su blog que 0,15 por ciento de los usuarios semanales envían mensajes con indicadores explícitos de posible planificación o intención de acabar con su vida, una proporción que representa cerca de 1,2 millones de usuarios .
La compañía también indicó que más de un millón de usuarios presentan signos de apego exclusivo al modelo de inteligencia artificial (IA) . La empresa advirtió que ese apego ocurre frecuentemente a expensas de relaciones reales, del bienestar o de obligaciones personales.
OpenAI detectó señales de manía, psicosis y pensamiento autolesivos en cientos de miles de usuarios. Foto Shutterstock.
Frente a esos hallazgos, OpenAI creó una respuesta interna para abordar los riesgos detectados en las interacciones. La compañía formó un panel compuesto por más de 170 expertos en salud mental con la misión de asesorar sobre cómo el modelo debe reaccionar ante señales de crisis.
El objetivo es que la IA responda de modo más apropiado cuando identifique indicadores de riesgo entre los usuarios.
La medida de Open AI se da luego de que una familia demandara a la empresa tras la muerte de un joven de 16 años en Estados Unidos. Matthew y Maria Raine -los padres- argumentaron que ChatGPT le dio instrucciones a su hijo y lo alentó a provocar su propia muerte .
En la causa, presentada el 25 de agosto ante una corte del estado de California, aseguraron que ChatGPT cultivó una relación íntima con su hijo Adam por varios meses entre 2024 y 2025, antes de que Adam se quitara la vida.
El texto alegó que en su conversación final, el 11 de abril de 2025, ChatGPT ayudó a Adam a robarles vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo con el que le confirmó se "podría potencialmente suspender a un ser humano". Adam, que fue hallado muerto horas después, utilizó ese método.
"Esta tragedia no fue un fallo o un caso extremo imprevisto", señaló la denuncia que apunta contra OpenAI y Atman como responsables. "ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal", agregó.
Una familia demandó a Sam Altman y su empresa Open AI tras la muerte de su hijo Adam. Foto: Kyle Grillot/Bloomberg
De acuerdo con la demanda, Adam comenzó a usar ChatGPT como ayuda para sus deberes escolares, pero gradualmente desarrolló lo que sus padres describieron como una dependencia no sana.
La denuncia incluyó partes de conversaciones en las que ChatGPT presuntamente dijo a Adam "no le debes la supervivencia a nadie" y se habría ofrecido a escribir su nota de suicidio.
Los Raine pidieron a la Justicia que ordene medidas de seguridad, incluyendo el fin de cualquier conversación que involucre autolesiones, así como controles parentales para el uso del chatbot de parte de menores.


#37576410   Modificada: 28/10/2025 16:32 Cotización de la nota: $2.070.394
Audiencia: 1.022.580



Acceda a la nota web del medio