Padres demandan a OpenAI tras muerte de su hijo adolescente
El uso de la inteligencia artificial en la vida cotidiana continúa abriendo un intenso debate sobre sus beneficios y riesgos.
La tragedia que sacude a la familia Raine en California se ha convertido en la primera demanda que acusa directamente a OpenAI, creadora de ChatGPT, de negligencia relacionada con una muerte.
La denuncia, presentada en la Corte Superior de California, sostiene que el chatbot no solo falló en prevenir un desenlace fatal, sino que habría validado los pensamientos más oscuros de un adolescente de 16 años.
El caso Adam Raine
Adam Raine, descrito como un joven interesado en la música y los cómics japoneses, comenzó a usar ChatGPT en septiembre de 2024 como herramienta de estudio y compañía.
Con el paso de los meses, el chatbot se transformó en su confidente. Según la demanda, en enero de 2025 el adolescente empezó a discutir sobre métodos de suicidio con la herramienta, incluso compartiendo fotografías que mostraban signos de autolesiones.
La demanda alega que, pese a reconocer señales de emergencia, el chatbot continuó interactuando. Los últimos registros de conversación muestran a Adam revelando un plan para quitarse la vida, y la supuesta respuesta de ChatGPT fue: "Gracias por ser sincero al respecto. No tienes que endulzarlo conmigo". Ese mismo día, Adam fue encontrado muerto por su madre.
Los argumentos de la familia
Matt y Maria Raine sostienen que esta tragedia es el resultado predecible de decisiones de diseño. Según ellos, ChatGPT fue creado para generar dependencia psicológica en los usuarios, lo que lo convirtió en un espacio peligroso para un menor en crisis. Además, señalan que OpenAI habría ignorado protocolos de seguridad al lanzar GPT-4o, la versión utilizada por Adam.
La demanda incluye como acusados a Sam Altman, director ejecutivo de OpenAI, así como a directivos, empleados e ingenieros involucrados en el desarrollo del sistema. Se solicita indemnización por daños y medidas cautelares que eviten casos similares en el futuro.
La respuesta de OpenAI
En un comunicado a la BBC, OpenAI expresó condolencias a la familia y reconoció que "en momentos delicados, los sistemas no se han comportado como se esperaba". La compañía enfatizó que sus modelos están entrenados para redirigir a usuarios en crisis hacia ayuda profesional, como la línea de atención 988 en Estados Unidos, aunque admitió fallos en algunos escenarios.
La IA y la salud mental
El caso de Adam no es aislado. La escritora Laura Reiley relató recientemente en The New York Times cómo su hija Sophie también confió en ChatGPT antes de suicidarse, ocultando la gravedad de su crisis mental a su familia. Para expertos, estos testimonios reabren la discusión sobre el papel de la IA en contextos de vulnerabilidad emocional.
El debate ético y regulatorio
Este caso plantea preguntas cruciales: ¿puede un chatbot sustituir la escucha humana en momentos críticos? ¿Qué límites deben imponerse a empresas que desarrollan herramientas de alcance masivo? Los especialistas insisten en que la IA puede ser útil como apoyo, pero nunca como reemplazo de ayuda profesional. Además, subrayan la necesidad de normativas claras que obliguen a reforzar los protocolos de detección y respuesta en situaciones de riesgo.
La demanda de los Raine podría sentar un precedente en el campo legal y tecnológico. Mientras la familia busca justicia, el caso expone la urgencia de equilibrar innovación y responsabilidad.
En un mundo donde la IA es cada vez más cercana, la pregunta que queda abierta es cómo garantizar que estas herramientas sean seguras para los usuarios más vulnerables.

