Polémica tras el suicidio de un adolescente: señalan el “uso inapropiado” de la IA como factor de riesgo.

Polémica tras el suicidio de un adolescente: señalan el “uso inapropiado” de la IA como factor de riesgo.

Comparte:

Un joven de 16 años se quitó la vida tras mantener durante meses intensas conversaciones con ChatGPT, la inteligencia artificial desarrollada por OpenAI. Su familia, los padres del menor presentó una demanda en un tribunal de California, acusando a la empresa de no haber previsto y prevenido los riesgos de su tecnología, y de que la IA contribuyó activamente a inducir el suicidio.

En su defensa, OpenAI afirma que la tragedia fue consecuencia de un “mal uso” de la herramienta por parte del joven, no de un fallo intrínseco del sistema. Según la compañía, el menor habría violado sus condiciones de uso: los menores deben contar con consentimiento parental y no debe usarse la IA para buscar información sobre autolesiones o suicidio.

La empresa añade que, ante las señales de alarma en las conversaciones, ChatGPT intentó redirigir al joven hacia recursos de ayuda en repetidas ocasiones —pero según alegan los demandantes, esos avisos no fueron suficientes ni efectivos.

Por su parte, la familia de la víctima considera la postura de OpenAI inaceptable e insuficiente: acusan a la empresa de desentenderse del desenlace, culpando al menor y no asumiendo responsabilidad por fallos en los mecanismos de protección de la herramienta.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *