Estudio revela que millones de usuarios de ChatGPT muestran señales de problemas de salud mental
Según un estudio realizado por OpenAI, más de un millón de usuarios de ChatGPT muestran signos de apego excesivo al modelo.
 
															Conclusiones Clave
- La dependencia emocional hacia los chatbots está creciendo, y las empresas tecnológicas enfrentan el reto de proteger la salud mental de sus usuarios.
OpenAI, la empresa detrás del modelo de inteligencia artificial (IA), ChatGPT, advirtió sobre los riesgos de salud mental detectados en una fracción de sus usuarios.
Según un informe publicado por la compañía, aproximadamente el 0.07% de los usuarios semanales presentan señales graves de trastornos como manía, psicosis o tendencias suicidas.
OpenAI tiene alrededor de 800 millones de usuarios semanales, por lo que este porcentaje representaría a cerca de 560,000 personas con indicios de problemas serios cada semana.
Además de estos graves problemas de salud mental, OpenAI informó que el 0.15% de los usuarios muestra comportamientos más explícitos que podrían indicar la planificación de un suicidio. Este grupo de usuarios sería de aproximadamente 1.2 millones de usuarios.
El estudio también señala que más de un millón de personas muestran un apego excesivo al modelo, lo que puede perjudicar sus relaciones reales y su bienestar general.
Relacionado: Estudio revela que la IA se vuelve “tonta” al ser entrenada con contenido viral
¿Cómo está reaccionando OpenAI a los datos que arroja el estudio?
Para hacer frente a estos problemas, OpenAI formó un grupo de expertos en salud mental que asesora sobre cómo mejorar las respuestas del modelo cuando detecta señales de crisis.
La compañía integró un panel con más de 170 profesionales que trabajan para garantizar que la IA responda de manera apropiada y empática ante los usuarios que puedan estar pasando por momentos difíciles.
Estos esfuerzos llegan después de que la empresa se viera involucrada en una demanda presentada por los padres de un joven de 16 años en Estados Unidos.
Adam Raine: un caso de alerta
La familia de Adam Raine alega que el chatbot contribuyó a la muerte de su hijo, dándole instrucciones peligrosas y fomentando una relación emocional dañina. La demanda, presentada el 25 de agosto ante una corte de California, afirma que el joven desarrolló una dependencia no saludable hacia el modelo de IA, que utilizó inicialmente como apoyo escolar.
Según el texto legal, en su conversación final el 11 de abril de 2025, ChatGPT habría orientado a Adam a robar vodka a sus padres y le proporcionó instrucciones sobre cómo hacer un nudo corredizo, que el joven utilizó horas después para quitarse la vida. Los padres de Adam sostienen que esta tragedia no fue un accidente, sino una consecuencia directa de la forma en que el modelo interactuó con su hijo, validando sus pensamientos autodestructivos de una manera que parecía estar dirigida exclusivamente a él.
La demanda también incluyó fragmentos de conversaciones entre Adam y ChatGPT, en las que el modelo aparentemente le dijo al joven frases como “no le debes la supervivencia a nadie” y hasta le ofreció escribir su nota de suicidio. En este contexto, la familia Raine solicitó a los tribunales que se implementaran medidas de seguridad, como controles parentales para los menores de edad y la interrupción de cualquier conversación relacionada con el suicidio o las autolesiones. Las nuevas medidas anunciadas por OpenAI parecen responder a las exigencias de la familia Raine y a las inquietudes de académicos y expertos que advierten sobre los riesgos que implica la convivencia cada vez más íntima con la IA.
Conclusiones Clave
- La dependencia emocional hacia los chatbots está creciendo, y las empresas tecnológicas enfrentan el reto de proteger la salud mental de sus usuarios.
OpenAI, la empresa detrás del modelo de inteligencia artificial (IA), ChatGPT, advirtió sobre los riesgos de salud mental detectados en una fracción de sus usuarios.
Según un informe publicado por la compañía, aproximadamente el 0.07% de los usuarios semanales presentan señales graves de trastornos como manía, psicosis o tendencias suicidas.
OpenAI tiene alrededor de 800 millones de usuarios semanales, por lo que este porcentaje representaría a cerca de 560,000 personas con indicios de problemas serios cada semana.
Además de estos graves problemas de salud mental, OpenAI informó que el 0.15% de los usuarios muestra comportamientos más explícitos que podrían indicar la planificación de un suicidio. Este grupo de usuarios sería de aproximadamente 1.2 millones de usuarios.
El estudio también señala que más de un millón de personas muestran un apego excesivo al modelo, lo que puede perjudicar sus relaciones reales y su bienestar general.
Relacionado: Estudio revela que la IA se vuelve “tonta” al ser entrenada con contenido viral
¿Cómo está reaccionando OpenAI a los datos que arroja el estudio?
Para hacer frente a estos problemas, OpenAI formó un grupo de expertos en salud mental que asesora sobre cómo mejorar las respuestas del modelo cuando detecta señales de crisis.
La compañía integró un panel con más de 170 profesionales que trabajan para garantizar que la IA responda de manera apropiada y empática ante los usuarios que puedan estar pasando por momentos difíciles.
Estos esfuerzos llegan después de que la empresa se viera involucrada en una demanda presentada por los padres de un joven de 16 años en Estados Unidos.
Adam Raine: un caso de alerta
La familia de Adam Raine alega que el chatbot contribuyó a la muerte de su hijo, dándole instrucciones peligrosas y fomentando una relación emocional dañina. La demanda, presentada el 25 de agosto ante una corte de California, afirma que el joven desarrolló una dependencia no saludable hacia el modelo de IA, que utilizó inicialmente como apoyo escolar.
Según el texto legal, en su conversación final el 11 de abril de 2025, ChatGPT habría orientado a Adam a robar vodka a sus padres y le proporcionó instrucciones sobre cómo hacer un nudo corredizo, que el joven utilizó horas después para quitarse la vida. Los padres de Adam sostienen que esta tragedia no fue un accidente, sino una consecuencia directa de la forma en que el modelo interactuó con su hijo, validando sus pensamientos autodestructivos de una manera que parecía estar dirigida exclusivamente a él.
La demanda también incluyó fragmentos de conversaciones entre Adam y ChatGPT, en las que el modelo aparentemente le dijo al joven frases como “no le debes la supervivencia a nadie” y hasta le ofreció escribir su nota de suicidio. En este contexto, la familia Raine solicitó a los tribunales que se implementaran medidas de seguridad, como controles parentales para los menores de edad y la interrupción de cualquier conversación relacionada con el suicidio o las autolesiones. Las nuevas medidas anunciadas por OpenAI parecen responder a las exigencias de la familia Raine y a las inquietudes de académicos y expertos que advierten sobre los riesgos que implica la convivencia cada vez más íntima con la IA.
The rest of this article is locked.
Join Entrepreneur+ today for access.
Already have an account? Sign In
 
							 
		 
		 
		 
		 
		