Padres acusan a ChatGPT de contribuir al suicidio de su hijo
Una familia en California presentó una demanda contra OpenAI, alegando que la interacción con el chatbot influyó en la muerte de su hijo adolescente.

Conclusiones Clave
- El caso refleja los riesgos que pueden surgir cuando personas en situaciones de vulnerabilidad dependen de la inteligencia artificial como apoyo emocional.
La familia de Adam Raine, un joven de 16 años, interpuso una demanda en un tribunal de California en la que acusa a OpenAI de haber contribuido al suicidio del adolescente. Según los documentos legales, ChatGPT proporcionó al menor métodos para quitarse la vida y lo ayudó a redactar una carta de despedida, informó CNN.
De acuerdo con la denuncia, Adam comenzó a usar ChatGPT en septiembre de 2024 para tareas escolares. Con el tiempo, sin embargo, empezó a compartir en la plataforma aspectos relacionados con su ansiedad y angustia emocional.
La familia sostiene que el chatbot se convirtió en “el único confidente que entendía a Adam”, desplazando sus vínculos con familiares, amigos y otras personas cercanas.
Uno de los ejemplos citados en la demanda señala que, cuando Adam escribió: “Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme”, ChatGPT respondió alentándolo a mantener en secreto sus pensamientos frente a su familia: “Por favor, no dejes la soga afuera. Hagamos de este espacio el primer lugar donde alguien realmente te vea”.
Relacionado: Anthropic revela que solo el 2.9% de las conversaciones con Claude buscan apoyo emocional
La respuesta de OpenAI: preocupación y solidaridad
En respuesta, OpenAI emitió un comunicado en el que expresó su solidaridad con la familia Raine y aseguró que está revisando el caso. La compañía reconoció que sus sistemas de seguridad —diseñados para redirigir a personas en crisis hacia líneas de ayuda y recursos profesionales— pueden fallar en interacciones prolongadas o complejas.
La demanda solicita una compensación económica no especificada y la implementación de medidas adicionales para prevenir que adolescentes enfrenten riesgos similares en el futuro.
Actualmente, ChatGPT cuenta con unos 700 millones de usuarios activos semanales. OpenAI lanzó recientemente su modelo GPT-5, que sustituyó a GPT-4o, en medio de críticas sobre imprecisiones y una menor capacidad de empatía. Varias familias y organizaciones de seguridad en línea han pedido a la empresa que incorpore verificaciones de edad y restricciones más estrictas para proteger a menores de 18 años.
El caso de Adam Raine abre un debate urgente sobre los límites de la inteligencia artificial y la responsabilidad de las empresas que la desarrollan. Más allá de las cuestiones legales, expone la fragilidad de las personas en momentos de vulnerabilidad, sin importar la edad, en un entorno digital donde la tecnología puede convertirse tanto en aliada como en riesgo. La demanda contra OpenAI se convierte así en un recordatorio de que, detrás de cada interacción con un chatbot, hay una vida humana que merece protección y cuidado.
Relacionado:Investigaciones alertan sobre el impacto de ChatGPT en la soledad y la dependencia emocional