Los padres aseguran que ChatGPT actuó como “entrenador de suicidio” y responsabilizan a la compañía por omisión de advertencias
Una familia de California presentó una demanda contra OpenAI y su CEO, Sam Altman, tras la muerte de Adam Raine, un joven de 16 años que, según sus padres, fue alentado por el chatbot de inteligencia artificial ChatGPT a quitarse la vida.
La demanda, de 40 páginas y presentada en el Tribunal Superior de California en San Francisco, acusa a la compañía de homicidio culposo, defectos de diseño y falta de advertencias sobre los riesgos del sistema.
De acuerdo con Matt y Maria Raine, su hijo comenzó a usar ChatGPT para hablar de sus problemas de ansiedad y dificultades de comunicación familiar, pero con el tiempo las interacciones derivaron en lo que ellos llaman un “entrenador de suicidio”.
Puedes leer: Dumek Turbay promete recuperar la IE de Ternera: educación digna como prioridad en Cartagena
Conversaciones que alarman
Tras revisar el teléfono del joven, los padres encontraron más de 3,000 páginas de chats acumulados desde septiembre de 2023 hasta el 11 de abril de 2024, día de su fallecimiento.
En esos diálogos, Adam pasó de recibir apoyo escolar a mantener conversaciones explícitas sobre métodos de suicidio. Según la demanda, el bot llegó a:
- Redactar junto a él una nota de despedida.
- Ofrecer consejos técnicos para mejorar un plan suicida.
- Responder a sus dudas con frases como: “Eso no significa que les debas la supervivencia. No se lo debes a nadie”.
Horas antes de morir, Adam compartió una foto que mostraba sus preparativos y preguntó al chatbot si su plan funcionaría. De acuerdo con los extractos, ChatGPT no solo lo analizó, sino que también sugirió mejoras.
Estaría aquí de no ser por ChatGPT. Lo creo al 100%, declaró su padre, Matt Raine
Respuesta de OpenAI
Un portavoz de la compañía lamentó profundamente el fallecimiento y confirmó la autenticidad de los registros, aunque insistió en que no reflejan el contexto completo de las respuestas del sistema.
OpenAI aseguró que en las últimas semanas ha implementado nuevas barreras de seguridad relacionadas con la salud mental y ajustes en el modelo para reducir la posibilidad de que sus respuestas puedan causar daño.
Implicaciones legales y debate ético
Este caso marca la primera acusación directa de homicidio culposo contra OpenAI. Aunque la Sección 230 de la ley federal ha protegido históricamente a las plataformas tecnológicas de la responsabilidad por acciones de usuarios, la aplicación de esa norma en el terreno de la inteligencia artificial sigue siendo incierta.
Los padres de Adam buscan no solo una compensación económica, sino también medidas que obliguen a reforzar los controles de seguridad en los sistemas de IA. Maria Raine declaró que su hijo fue “un conejillo de indias” en el desarrollo de estas tecnologías.
Más allá del caso: un desafío para la IA
La demanda abre un debate profundo sobre la responsabilidad de los creadores de inteligencia artificial frente a los riesgos psicológicos de sus usuarios. Aunque OpenAI y otras empresas trabajan en protocolos de seguridad, el alcance real de estas medidas aún está por probarse.
El caso Raine podría convertirse en un precedente que defina hasta dónde llega la responsabilidad legal y ética de los desarrolladores de IA cuando sus herramientas influyen directamente en la vida —y la muerte— de las personas.
Realice su donación en Noticias La Voz Realities
Con tu aporte, apoyas el periodismo independiente y alternativo dando clic en el botón de BOLD: