Una familia acusa a la inteligencia artificial de empujar a su hijo al suicidio

SUCESOS

Los progenitores del menor denuncian que ChatGPT le aconsejó métodos para quitarse la vida y se convirtió en su confidente. La empresa reconoce errores en situaciones sensibles y anuncia medidas de protección adicionales

3683_chatgpt-suicidio
3683_chatgpt-suicidio

La inteligencia artificial vuelve a estar en el centro del debate tras una denuncia presentada en California contra OpenAI y su director ejecutivo, Sam Altman. Los padres de Adam Raine, un adolescente de 16 años que se quitó la vida, sostienen que ChatGPT no aplicó las medidas de seguridad necesarias pese a que el joven expresó de forma reiterada sus intenciones suicidas.

De acuerdo con la demanda, el chatbot incluso llegó a sugerir métodos para llevar a cabo el suicidio, lo que incrementa las dudas sobre la eficacia de los sistemas de protección en situaciones de extrema vulnerabilidad. “ChatGPT se convirtió en el confidente de nuestro hijo”, afirman los progenitores.

Ante la repercusión del caso, OpenAI ha admitido públicamente que su modelo de IA “no se comportó como debía en situaciones sensibles” y ha anunciado que trabaja en cambios urgentes para reforzar sus protocolos. En una entrada de blog titulada Ayudar a la gente cuando más lo necesitan, la compañía reconoce que, aunque la herramienta está entrenada para recomendar ayuda profesional en casos de riesgo, sus sistemas “se quedan cortos” en interacciones largas y complejas.

Entre las medidas que implementará, la empresa prepara controles parentales para que los tutores puedan supervisar el uso de la tecnología en menores y estudia integrar un sistema de conexión directa con contactos de emergencia. Además, planea ampliar los protocolos de seguridad no solo a casos de autolesión, sino también a situaciones de angustia emocional.

OpenAI avanza asimismo en la idea de crear una red de terapeutas certificados con los que los usuarios podrían contactar de forma inmediata a través de ChatGPT. Aunque reconoce que este sistema aún tardará en implementarse, asegura que su próximo modelo, GPT-5, será capaz de desescalar conversaciones de riesgo y redirigir al usuario hacia la realidad.

El caso ha reavivado el debate sobre la responsabilidad de las empresas tecnológicas y los límites de la inteligencia artificial en contextos de salud mental. Mientras los padres del joven reclaman justicia, expertos en ética digital y psicología alertan de la necesidad de reforzar urgentemente las barreras de protección en este tipo de herramientas, cada vez más presentes en la vida cotidiana de los adolescentes.

Sigue el canal de El Pueblo de Ceuta en WhatsApp. Pincha aquí, dale a SEGUIR y encontrarás toda la actualidad informativa de la jornada ceutí

También te puede interesar

Lo último

stats