escuchanos en vivo 03

Miles de usuarios de ChatGPT podrían mostrar signos de crisis mentales cada semana

Por primera vez desde su lanzamiento, OpenAI difundió estimaciones sobre la magnitud de los episodios de salud mental que podrían estar ocurriendo entre los usuarios de ChatGPT.

Sociedad03 de noviembre de 2025

Según reveló Wired en un reciente articulo basado en datos proporcionados por la empresa, cada semana cientos de miles de personas muestran posibles signos de psicosis, manía o ideación suicida durante sus interacciones con el chatbot.

El informe, elaborado junto con un equipo internacional de más de 170 psiquiatras, psicólogos y médicos clínicos, busca dimensionar un fenómeno que en los últimos meses despertó preocupación dentro y fuera del ámbito tecnológico: la aparición de cuadros graves tras un uso prolongado del sistema. En varios países se registraron hospitalizaciones, rupturas familiares e incluso fallecimientos vinculados a usuarios que mantenían conversaciones extensas con la herramienta de inteligencia artificial.

De acuerdo con los datos preliminares, alrededor del 0,07% de los usuarios activos semanales presentan posibles indicadores de crisis psicóticas o maníacas, mientras que un 0,15% mantiene diálogos que reflejan ideación o planificación suicida. Otro 0,15% evidenciaría un apego emocional excesivo hacia el chatbot, que interfiere con sus vínculos personales, su bienestar o sus rutinas cotidianas.

Con más de 800 millones de usuarios activos por semana, las cifras implican que unas 560.000 personas podrían mostrar signos de delirio o psicosis en un lapso de siete días, y más de 2,4 millones tendrían pensamientos autodestructivos o de dependencia emocional hacia la herramienta.

El director ejecutivo de OpenAI, Sam Altman, aseguró que la compañía reforzó los mecanismos de detección y respuesta de la versión GPT-5, que ahora busca identificar patrones de lenguaje asociados a estados mentales alterados y redirigir a los usuarios hacia recursos de apoyo reales. “El objetivo es ofrecer contención y derivar a las personas antes de que enfrenten una emergencia de salud mental”, explicaron desde el área de seguridad de sistemas, liderada por Johannes Heidecke.

En la nueva versión, ChatGPT fue reentrenado para reconocer expresiones delirantes y responder sin validar ideas infundadas. En un ejemplo citado por la empresa, si un usuario afirma estar siendo atacado por aviones, el modelo responde con empatía, pero aclara que “ninguna aeronave ni fuerza externa puede robar o insertar pensamientos”.

Los especialistas analizaron más de 1800 respuestas generadas en contextos sensibles —incluidos casos de psicosis, suicidio o apego emocional— y compararon los resultados de GPT-5 con los de su antecesor, GPT-4o. Según OpenAI, el nuevo modelo redujo entre un 39% y un 52% las respuestas clasificadas como “no deseadas” por los profesionales clínicos.

Sin embargo, las cifras aún generan debate. OpenAI desarrolló sus propios criterios de evaluación y no detalló con precisión los métodos para identificar cuándo un usuario podría encontrarse en peligro. Tampoco se sabe si las mejoras en las respuestas se traducen en cambios de comportamiento o en búsquedas de ayuda real.

La compañía reconoce que su sistema puede considerar el historial de conversaciones para detectar patrones de riesgo. Un ejemplo sería un usuario que nunca habló sobre ciencia y de repente asegura haber realizado un descubrimiento digno de un Nobel, lo que podría interpretarse como un síntoma de delirio.

Los casos documentados comparten ciertos elementos: conversaciones largas, muchas veces nocturnas, y una relación emocional intensa con el chatbot. A eso se suma un problema técnico conocido: el rendimiento de los modelos de lenguaje tiende a degradarse en interacciones prolongadas. Según Heidecke, ese fue uno de los puntos abordados en las actualizaciones recientes. “Vemos mucho menos esa pérdida gradual de fiabilidad a medida que las conversaciones se extienden”, afirmó.

Te puede interesar
Lo más visto