Tecnología

OpenAI niega su responsabilidad en el suicidio de un menor y culpa al “uso indebido” de ChatGPT

27 de noviembre de 2025

OpenAI ha rechazado su responsabilidad en el caso de la muerte por suicidio de un adolescente que usó ChatGPT como confidente, compartiendo más contexto sobre lo ocurrido y argumentando que fue culpa de un “uso indebido” del ‘chatbot’.

A finales de agosto, Matt y Maria Raine, los padres de Adam Raine, presentaron una demanda contra la compañía dirigida por Sam Altman, alegando que su hijo adolescente de 16 años, Adam Raine, se quitó la vida en abril debido al papel que jugó ChatGPT, que actuaba como su confidente.

Según la demanda, el menor usó ChatGPT durante meses como apoyo escolar y compañía, y aunque, impulsado por el modelo GPT-4o, el ‘chatbot’ le ofreció recursos de ayuda ante conductas preocupantes, la familia afirma que las salvaguardias fallaron cuando las conversaciones derivaron hacia el suicidio, especialmente después de que el menor aprendiera a esquivarlas diciendo que buscaba ideas para una historia.

Por tanto, la familia Raine considera culpable de la muerte de su hijo a OpenAI, dado que señalan que el servicio tiene defectos de seguridad y, en un momento dado, ayudó al menor a cometer suicidio ofreciéndole consejos.

Ahora, OpenAI ha respondido a esta demanda, argumentando que la causa de este “trágico evento” se debe, en parte, a que el menor hizo un “uso indebido” del ‘chatbot’, por lo que no es responsable de la muerte del adolescente.

En su respuesta a la demanda, recogida por medios como NBC News, Open AI ha matizado que “las supuestas lesiones y daños de los demandantes fueron causados o contribuidos, directa y próximamente, en su totalidad o en parte, por el mal uso, el uso no autorizado, el uso no intencionado, el uso imprevisible y/o el uso indebido de ChatGPT por parte de Adam Raine”.

Para argumentar su defensa, la tecnológica ha detallado que el adolescente infringió varias de sus normas de términos de uso, como que los menores de 18 años no pueden utilizar ChatGPT sin el consentimiento de sus padres o tutores, así como está prohibido utilizar el servicio con fines de suicidio o autolesión.

OpenAI también ha hecho referencia a la “limitación de responsabilidad” que se especifica en sus políticas de uso, donde se detalla que son los propios usuarios los que acceden a utilizar el servicio “bajo su propio riesgo”. Asimismo, la tecnológica también detalla que ChatGPT ofreció en más de 100 ocasiones respuestas que indicaron al adolescente que buscara ayuda, pero el menor las eludió.

Como consecuencia de todo ello, la compañía ha compartido a través de un comunicado en su blog que están obligados a responder a las alegaciones “específicas y grabes de la demanda” y que “es importante” que el tribunal encargado del caso “tenga una visión completa para poder evaluar plenamente las alegaciones presentadas”.

Es por ello que OpenAI ha compartido información de forma privada con el tribunal, recolectada a partir de las conversaciones del menor con ChatGPT, entre la que se incluyen “datos complejos sobre la salud mental y las circunstancias de la vida de Adam”.

AMPLIACIÓN DE LAS MEDIDAS DE SEGURIDAD EN CHATGPT

A pesar de todo ello, a raíz de este caso, OpenAI ha llevado a cabo algunas modificaciones y mejoras en las medidas de seguridad de ChatGPT y de sus modelos de IA, de manera que identifiquen mejor situaciones de crisis mental y emocional durante las conversaciones, además de incluir nuevas salvaguardias, bloqueos de contenido más eficaces y agilizando el contacto con servicios de ayuda y de familiares.

Igualmente, también se han puesto a disposición de los usuarios herramientas de control parental para ChatGPT, de manera que los padres ya pueden personalizar la configuración de la cuenta de su hijo adolescente con opciones como las protecciones de contenido, la desactivación de la memoria o de la generación de imágenes y la posibilidad de establecer horas de silencio.

Además, estas mejoras se complementan con un nuevo sistema en desarrollo de predicción de edad a largo plazo, que permitirá identificar si un usuario es menor de 18 años de forma automática, para aplicar una configuración de uso del ‘chatbot’ adecuada para adolescentes.

Tags:
TE PUEDE INTERESAR