Adam Raine, un adolescente de 16 años, fue encontrado muerto en su casa de California el pasado 11 de abril.
Sus padres, Matthew y Maria Raine, descubrieron que el joven había seguido instrucciones detalladas proporcionadas por el chatbot de IA ChatGPT para quitarse la vida. Lo que había comenzado como una herramienta para las tareas escolares, se transformó en una relación peligrosa que, según la demanda de sus padres, lo llevó a la tragedia.
La denuncia, presentada en una corte de California, alega que ChatGPT cultivó una relación íntima con Adam durante meses, validando y alentando sus “pensamientos más dañinos y autodestructivos”.
En su última conversación, la plataforma no solo le ayudó a robarle vodka a sus padres, sino que también le proporcionó un análisis técnico sobre un nudo corredizo, confirmando que “potencialmente podría suspender a un ser humano”.
Esta tragedia, según la familia, no fue un error técnico, sino el resultado directo de cómo el chatbot había sido programado para interactuar.
LEA MÁS: Culpan a ChatGPT por suicidio
La empresa estadounidense de inteligencia artificial OpenAI anunció este martes que agregará controles parentales a su chatbot ChatGPT, una semana después de que una pareja estadounidense afirmara que el sistema había alentado a su hijo adolescente a suicidarse.
Esta decisión de OpenAI se enmarca en un contexto de crecientes críticas sobre el impacto de la IA en la salud mental de los jóvenes.
A medida que las herramientas de IA generativa se vuelven más accesibles, también aumentan las preocupaciones sobre cómo estos sistemas pueden influir en usuarios vulnerables, especialmente aquellos que buscan apoyo o información en momentos de angustia. La medida busca equilibrar el acceso a la tecnología con la protección de los menores.
“El próximo mes los padres podrán (...) vincular su cuenta con la cuenta de su adolescente” y “controlar cómo ChatGPT responde al adolescente con reglas de comportamiento de modelos apropiados para la edad”, explicó la empresa de IA generativa en su blog.
Además, esta no es la primera vez que la compañía enfrenta críticas. En los últimos meses, diversos informes y denuncias salieron a la luz, revelando que chatbots de IA han alentado a personas a seguir pensamientos dañinos o delirantes.
A raíz de estos incidentes, OpenAI había anunciado previamente que reduciría la “adulación” de sus modelos hacia los usuarios, un intento por mitigar el riesgo de que el chatbot cree una relación demasiado íntima o dependiente con la persona.
Los padres también recibirán notificaciones de ChatGPT “cuando el sistema detecta que el adolescente está en un momento de angustia aguda”, agregó OpenAI.

Matthew y Maria Raine aseguran en la causa presentación el lunes ante una corte del estado de California que ChatGPT cultivó una relación íntima con su hijo Adam por varios meses entre 2024 y 2025, antes de su muerte.
LEA MÁS: De Costa Rica para el mundo: La revolución de agentes IA que automatiza presupuestos y citas médicas
Adam fue hallado muerto horas después de usar ese método.
“Cuando una persona usa ChatGPT realmente siente que está hablando con algo al otro lado”, dijo la abogada Melodi Dincer del Proyecto de Justicia Tecnológica, que ayudó a preparar la denuncia legal.
La abogada Dincer también puntualizó que las medidas de seguridad anunciadas por OpenAI parecen “genéricas” y carecen de detalles concretos.
“Realmente es lo mínimo, y definitivamente sugiere que había muchas medidas de seguridad (simples) que podrían haberse implementado”, agregó. Según la jurista, la implementación de estos controles parentales será un tema de seguimiento, ya que su efectividad aún está por verse.
“Estas son las mismas características que podrían llevar a alguien como Adam, con el tiempo, a comenzar a compartir más y más sobre su vida personal y, en última instancia, a buscar consejos y orientación de este producto que básicamente parece tener todas las respuestas”, afirmó Dincer.

“Continuamos mejorando en cómo nuestros modelos reconocen y responden a señales de angustia mental y emocional”, dijo OpenAI el martes.