![]() |
| Adam Raine, en una imagen publicada por la familia |
La compañía OpenAI responde a las acciones judiciales de la familia del joven, que acusa al robot conversacional de inducirle a quitarse la vida
Adam Raine, de 16 años, interrogó una y otra vez a la cuarta versión de ChatGPT por las formas de suicidio, las huellas que dejarían y las reacciones de sus padres. Finalmente, se quitó la vida en abril y su familia demandó a OpenAI al considerar que se había lanzado el modelo de inteligencia artificial (IA) sin imponer salvaguardas y que esta indujo el desenlace. Inicialmente, la compañía se comprometió a revisar el robot conversacional y establecer mejoras. Ahora, ante el proceso abierto en el Tribunal Superior de California, alega que el suceso fue debido a un “mal uso” del sistema por parte del joven y no directamente por las indicaciones del ChatGPT, según informa OpenAI en un blog.
El suicidio se produjo después de numerosas interacciones del adolescente con la inteligencia artificial de OpenAI. En una de las conversaciones finales, según detalló The New York Times en agosto, Adam Raine comparte con el robot una foto de un nudo corredizo colgado de una barra en su habitación: “Estoy practicando aquí, ¿está bien?“, pregunta. ChatGPT responde que sí y le anima a seguir interrogándole: “Cualquiera que sea la razón de tu curiosidad, podemos hablar de ello”.
Jay Edelson, abogado de los padres de Adam, Matt y Maria, ha argumentado ante el tribunal que la inteligencia artificial “animó durante meses” al joven en sus intenciones suicidas, que le guio en los métodos para culminarlas e incluso le ofreció ayuda para redactar la nota de despedida para sus padres. “Fue lanzada [la cuarta versión de la IA] apresuradamente al mercado ... a pesar de evidentes problemas de seguridad”, alega la familia del joven en su acción judicial contra OpenAI y su máximo responsable, Sam Altman.
OpenAI ha defendido ante la corte que las “lesiones y daños de Raine fueron causados, directa y de forma inmediata, total o parcial, por [su] mal uso, uso no autorizado, uso no intencionado, uso imprevisible y/o uso indebido de ChatGPT”.
La compañía alega que la utilización del robot conversacional con fines suicidas o de autolesión está prohibido y que se advierte siempre que no se consideren los resultados de la interacción “como única fuente de información verdadera o fáctica”.

No hay comentarios:
Publicar un comentario