OpenAI negó ser responsable del suicidio de un joven estadounidense de 16 años que mantuvo conversaciones durante meses con ChatGPT, afirmó que el caso responde a un “uso indebido” de la herramienta.
Según documentos presentados esta semana ante el Tribunal Superior de California, citados por NBC News, la compañía sostiene que el adolescente, Adam Raine, utilizó el sistema de manera “no autorizada, imprevisible e inapropiada”.
Los padres del menor demandaron en agosto a OpenAI, acusando a la empresa de lanzar al mercado ChatGPT-4o pese a problemas de seguridad. Contribuyendo de dicha manera a que su hijo explorara métodos de suicidio.
OpenAI asegura que las conversaciones contienen más de cien mensajes instando al joven a buscar ayuda profesional y subraya que el servicio prohíbe su uso a menores de 18 años sin consentimiento parental. Además, recuerda que la plataforma advierte que sus respuestas no deben considerarse como única fuente fiable de información.
La compañía, ahora uno de los principales actores de la inteligencia artificial en EE.UU., insiste en que la tragedia se debió a la “falta de respuesta” de otros signos de angustia del adolescente. Además del rechazo de Adam en “atender advertencias y buscar ayuda”.
OpenAI También señala que la demanda presenta fragmentos “fuera de contexto” de sus conversaciones, a los que ya ha aportado información complementaria.















