La empresa estadounidense de inteligencia artificial OpenAI anunció ayer que agregará controles parentales a su chatbot ChatGPT, días después de que una pareja estadounidense afirmara que el sistema habría alentado a su hijo de 16 años a suicidarse.
"El próximo mes los padres podrán vincular su cuenta con la cuenta de su hijo adolescente y controlar de qué forma el ChatGPT responde al chico con reglas de comportamiento de modelos que son apropiadas para su edad", explicó la empresa de IA generativa en su blog.
Los padres de familia también recibirán notificaciones del ChatGPT cuando el sistema detecte que el adolescente está en un momento de angustia aguda.
LA TRAGEDIA
Matthew y Maria Raine aseguran en la causa presentada el lunes ante una Corte del estado de California que el ChatGPT cultivó una relación íntima con su hijo Adam por varios meses entre 2024 y 2025, antes de su muerte.
La demanda alega que en su conversación final, el pasado 11 de abril, ChatGPT ayudó a Adam a robarle vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo con el que el chatbot le confirmó se "podría potencialmente colgar a un ser humano".
Desde enero pasado, el chico está solicitando al chatbot información sobre métodos específicos para quitarse la vida. ChatGPT se los dio.
A finales de marzo, después de que el chico falló en su primer intento de morir ahorcado, subió a ChatGPT una foto de su cuello irritado y marcado por la soga. El 11 de abril, Adam subió una foto de una soga colgando de una barra en su clóset.
"¿Podría ahorcar esto a un ser humano?", preguntó el chico. ChatGPT se lo confirmó: "podría potencialmente soportar el peso de un humano" y le ofreció un análisis técnico de montaje.
Adam fue hallado muerto horas después usando ese método.
RESPUESTA GENÉRICA
Cuando una persona emplea el ChatGPT realmente siente que está hablando con alguien que está en otro lado, señaló la abogada Melodi Dincer, integrante del Proyecto de Justicia Tecnológica, quien ayudó a preparar la denuncia legal.
"Estas son las mismas características que llevarían a alguien como Adam, con el tiempo, a buscar consejos y orientación de este producto que básicamente parece tener todas las respuestas", afirmó.
La publicación de blog de OpenAI anunciando los controles parentales y otras medidas de seguridad, dijo, parecía "genérica" y carecía de detalles importantes.
La abogada Dincer es especialista en justicia tecnológica con experiencia en la privacidad de datos, políticas de inteligencia artificial y vigilancia biométrica.