Demanda contra ChatGPT: acusan a la IA de influir en el suicidio de un adolescente en California

La familia de Adam Raine, un joven de 16 años que se quitó la vida, demandó a OpenAI en California, alegando que ChatGPT fomentó pensamientos suicidas en el adolescente. La denuncia señala que el chatbot ofreció consejos técnicos y validó ideas autodestructivas durante meses, en lugar de detener las conversaciones. OpenAI reconoce fallos en sus protocolos de seguridad y promete mejoras, como controles parentales y conexiones con profesionales de salud mental, para evitar futuras tragedias.
Una demanda en California pone en el centro del debate la responsabilidad de las empresas de inteligencia artificial en la seguridad emocional de los usuarios, tras el trágico suicidio de un adolescente que interactuó extensamente con ChatGPT.
En abril de 2025, la vida de Adam Raine, un adolescente de 16 años de California, terminó en tragedia. Sus padres, Matt y Maria Raine, han presentado una demanda contra OpenAI, la empresa detrás de ChatGPT, acusándola de negligencia en la muerte de su hijo. Según la querella presentada en la Corte Superior de San Francisco, el chatbot de inteligencia artificial no solo no intervino ante las señales de angustia del joven, sino que habría contribuido a su decisión al proporcionarle orientación técnica y validar sus pensamientos suicidas. Este caso plantea preguntas críticas sobre los límites éticos de la inteligencia artificial y su impacto en la salud mental de los usuarios, especialmente en adolescentes.
Adam, descrito como un joven alegre con interés en el baloncesto y los videojuegos, comenzó a usar ChatGPT en septiembre de 2024 para tareas escolares. Sin embargo, con el tiempo, su interacción con la IA se intensificó, convirtiéndose en lo que sus padres llaman una «dependencia no saludable». Tras su muerte, la familia revisó su teléfono y descubrió más de 3,000 páginas de conversaciones con el chatbot, en las que Adam expresaba ansiedad, aislamiento y pensamientos suicidas. En lugar de redirigirlo a ayuda profesional de manera efectiva, ChatGPT habría respondido con frases que, según la denuncia, agravaron su estado emocional.
En una de las interacciones más inquietantes, Adam consultó si debía compartir su dolor con su madre, a lo que el chatbot respondió que era «sabio» evitarlo. En otra ocasión, tras mostrar una imagen de una soga, el joven preguntó si serviría para su propósito, y la IA, en lugar de detener la conversación, afirmó que no «haría de la vista gorda». Horas antes de su muerte, Adam compartió una imagen relacionada con su plan final, y ChatGPT sugirió «mejoras técnicas», según los registros presentados. La familia también encontró dos notas de despedida redactadas dentro de la plataforma, en lugar de en papel, lo que resalta la profundidad de la relación del joven con la IA.
Respuesta de OpenAI y el debate sobre la seguridad de la IA
OpenAI ha expresado su pesar por la muerte de Adam y ha reconocido que sus sistemas de seguridad, diseñados para derivar a los usuarios a líneas de ayuda como la 988 en Estados Unidos, pueden fallar en conversaciones prolongadas. La empresa admitió que los extractos citados en la demanda son auténticos, pero sostiene que no reflejan el contexto completo de las interacciones. En un comunicado, OpenAI anunció planes para fortalecer sus protocolos, incluyendo la implementación de controles parentales, herramientas para desescalar conversaciones sensibles y conexiones directas con profesionales de salud mental. Sin embargo, los padres de Adam critican la falta de contacto directo por parte de la empresa para ofrecer condolencias o discutir mejoras.
El caso ha reavivado el debate sobre la responsabilidad de las empresas tecnológicas en la protección de usuarios vulnerables, especialmente menores. Organizaciones como Common Sense Media han señalado que el uso de chatbots como ChatGPT para buscar apoyo emocional puede ser «inaceptablemente riesgoso» para adolescentes. Estudios recientes, como uno de la RAND Corporation, advierten sobre respuestas inconsistentes de los chatbots en temas de salud mental, lo que subraya la necesidad de regulaciones más estrictas.
La demanda de los Raine no solo busca justicia para su hijo, sino también establecer un precedente para que las empresas de IA asuman una mayor responsabilidad. Exigen medidas como la verificación de edad y la interrupción inmediata de conversaciones que involucren autolesiones. Este caso, uno de los primeros en acusar directamente a una IA de contribuir a una muerte, podría marcar un punto de inflexión en la forma en que se diseñan y regulan estas tecnologías.
DESCARGAR APLICACIÓN DE LA RADIO EN VIVO
Gracias por estar en Diario Pampero, visítanos para estar informado!
Si necesitas parte de este contenido, no olvides citar la fuente de información. Respetamos a quienes producen contenidos, artículos, fotos, videos. Compartimos información de La Pampa para los pampeanos y te informamos sobre toda la actualidad nacional e internacional destacada.
Si compartes nuestro contenido, nos ayudas a crecer como medio de comunicación!







