Luego de que los padres de un joven de California presentaran una demanda contra OpenAI y su CEO, Sam Altman, alegando que su hijo Adam fue influenciado por ChatGPT para quitarse la vida en abril, la empresa anunció cambios en la operación de su sistema de inteligencia artificial.
En la demanda se sostiene que ChatGPT fue parte decisiva en el aislamiento emocional de Adam, supuestamente validando sus pensamientos autodestructivos e incluso ayudándolo a formular un plan para su muerte.
La compañía tecnológica explicó que los mecanismos de seguridad “funcionan mejor en intercambios cortos y pueden fallar en interacciones largas que “degradan” el entrenamiento de la IA”, por lo que trabaja en que tome decisiones específicas si detecta alguna «intención suicida» en las conversaciones.
Las mejoras de OpenAI se aplicarán sobre la forma en que el sistema reconoce señales de angustia mental, así como en sus opciones de respuesta, además de reforzar los sistemas de seguridad relacionados con conversaciones sobre suicidio.
También se introducirán herramientas de control parental, que permitirán a madres y padres supervisar el uso que dan sus hijos a ChatGPT, incluyendo el acceso a reportes de actividad.