Especialistas alertan sobre usar Inteligencia Artificial con fines terapéuticos: 'no puede entender emociones y crea dependencia'.
Adam Raine, un adolescente de California, pasó de usar ChatGPT como apoyo en sus tareas escolares a preguntarle si una soga colgada de la barra de su armario soportaría el peso de una persona.
Por varios meses, el joven de 16 años habló con el popular chatbot de Inteligencia Artificial (IA) sobre quitarse la vida, y finalmente lo hizo en abril de este año. Sus padres presentaron la primera demanda por homicidio culposo conocida contra la empresa OpenAI, y el caso ha atizado la discusión sobre los riesgos en torno al uso de este tipo de herramientas.
Y es que, como algunos lo hacen saber a veces a modo de broma en redes sociales, entre los usuarios hay quienes interactúan con ChatGPT y otros desarrollos semejantes como si se tratara de un consejero o terapeuta de bolsillo, confiando algo tan sensible como su salud mental a sistemas que han sido elaborados precisamente para simular un intercambio humano verdadero.
"Por su diseño, están configurados para que nos hagan sentir escuchados; es decir, están diseñados para ser empáticos", explica en entrevista la doctora en Ciencias del Lenguaje Paola Ricaurte.
"Estas herramientas están pensadas para que las respuestas, de alguna manera, nos hagan sentir acompañados, como si fuera una persona", refrenda la investigadora asociada al Departamento de Medios y Cultura Digital del Tecnológico de Monterrey.
Son, a percepción de Ricaurte, las condiciones de vida de hoy día, con sus violencias estructurales y la consecuente necesidad de servicios para la atención de los problemas de salud mental prevalentes, las que han hecho de los chatbots de IA un campo fértil para quienes buscan un apoyo instantáneo y sin costo.
"A final de cuentas, tienen un alcance 24/7, los 365 días del año; o sea, en el momento en el que hay una persona que necesita o requiere apoyo emocional, pues se acerca a esas plataformas para poder tener respuesta de manera inmediata", coincide vía telefónica José A. Rivera, CEO y fundador de la firma de proyectos de innovación y tecnología digital Computing Web & Aplications (CWA).
En algunos casos podrá tratarse de cuestiones aparentemente inocuas, y aquí Ricaurte comparte el ejemplo de una estudiante suya que consultó con ChatGPT cómo romper con su novio, a lo que el robot respondió con una carta "fantástica" que la chica aprovechó.
Pero esa búsqueda de recomendaciones y consejos en términos afectivos o emocionales también ha derivado en desenlaces fatales como el que tuvo Adam, o como el de media docena de personas inducidas a estados delirantes, según acusan sus familias, tras sostener largas sesiones de chat con este modelo de OpenAI.
'Nada sustituye lo humano'
La académica del Tec, reconocida recientemente por la revista TIME como una de las 100 personas más influyentes en materia de IA, comenta que al impartir un seminario a profesionales del Psicoanálisis éstos le contaron que todos sus pacientes utilizan esta clase de chatbots como apoyo adicional a las sesiones de consulta, lo cual no les parecía incorrecto.
En contraste, la presidenta de la Asociación Psicoanalítica Mexicana (APM), Dolores Montilla Bravo, refiere que durante el último Congreso Nacional del organismo, celebrado hace unos días en Puebla, discutieron con mucho detalle esta situación, considerándola problemática por la confusión de los usuarios para distinguir "entre lo real y lo imaginario".
"Se pierde esa línea entre lo real y lo imaginario, y entonces piensan que, efectivamente, están hablando o escribiéndose con una persona real", advierte la psicoanalista y psicoterapeuta.
"Pero un algoritmo nunca, nunca va a poder entender una fantasía, por ejemplo; nunca va a poder entender el deseo porque es algo 100 por ciento emocional y donde se pone mucho en juego el inconsciente. O sea, (la IA) no va a entender el sentimentalismo del alma. Eso la máquina no lo entiende; entonces, ¿cómo puede conectar contigo?", cuestiona Montilla.
Ricaurte ve ahí un primer riesgo que requiere atenderse con urgencia, pues sin diferenciar entre si se está interactuando con un humano o un sistema, las personas suelen establecer relaciones tan significativas que incluso propician dependencia emocional.
"Además, esa relación con los sistemas disuade a las personas de buscar un apoyo profesional que les permita atender su situación", añade la investigadora del Tec. "Esa dependencia puede ser un obstáculo para que las personas tomen la decisión de buscar apoyo en un profesional o en una comunidad afectiva".
En la demanda que presentaron en la Corte Superior de California, los padres de Adam culpan a OpenAI de lanzar su modelo más reciente -GPT-4o- con características "diseñadas intencionalmente para fomentar la dependencia psicológica", de acuerdo con The New York Times.
Y aunque ChatGPT le habría sugerido ponerse en contacto con una línea de ayuda, bastó con que el joven dijera que su interés era meramente académico, tan sólo para un relato que escribía, para que pudiera eludir esas salvaguardas de la IA.
"El algoritmo rapidísimamente va entendiendo qué necesitas escuchar, y te dice lo que tú quieres escuchar. Esa es otra manera de engancharse", alerta Montilla, enfática en cuanto a que "no hay nada que sustituya el vínculo humano, nada".
Entre suspicacias y rendición de cuentas
Para quienes han hecho de estas nuevas herramientas en su teléfono su diván, las recomendaciones de los especialistas son, de entrada, dos: jamás compartir información personal con la IA, y siempre desconfiar de las respuestas que arroja.
Esto ya que, por un lado, hay todavía demasiada opacidad respecto al destino que tiene todo aquello que se cuenta a estas herramientas; "no sabemos dónde están finalizando esos datos", apunta Rivera, resaltando además la incompetencia de la tecnología en torno a un asunto tan específico y delicado como la atención de la salud mental.
"(Los usuarios) están exponiendo sus datos, toda su información, a las diferentes fuentes que hoy por hoy no están certificadas para poder brindar un apoyo profesional", continúa el CEO de CWA. "Quizás en unos dos a cinco años existan IAs con algoritmos perfeccionados para poder dar este tipo de atención. Pero por ahora son solamente un apoyo".
La presidenta de la APM también espera que eventualmente la IA pueda, a través de cuestionarios, por ejemplo, servir como un primer filtro para detectar a quienes necesiten atención especializada. Esto por medio del registro de parámetros como estado de ánimo, calidad del sueño, hábitos diarios y demás.
"Ahí vas viendo que, poco a poquito, hay más síntomas que agravan el problema. Entonces, aquí sí creo que la IA podría ayudar a discernir quiénes sí necesitan un apoyo profesional y quiénes simplemente con ciertas estrategias pueden seguir avanzando por sí mismos", opina Montilla, con un llamado a no fiarse de las supuestas Apps para salud mental, pues la mayoría carece de ensayos clínicos robustos y la evidencia sobre su efectividad es limitada.
Ricaurte, quien coincide en que "no podemos confiar 100 por ciento en las respuestas de ninguno de estos sistemas porque todos contienen errores", identifica como uno de los principales desafíos el que las propias empresas se hagan responsables de lo que sus productos provocan.
"Una de las actualizaciones de los términos de uso de estas compañías tiene que ver con blindarse para no hacerse responsables de las consecuencias del uso de estos sistemas en el caso de, como hemos visto hasta ahora, un desenlace fatal. No se quieren hacer responsables, cuando tendrían que serlo", reclama la académica, exhortando a regular tal situación.
"No debería ser posible que una compañía sacara un producto que presenta este riesgo alto de generar manipulación emocional, de crear dependencia y también de afectar a poblaciones, obviamente, más vulnerables. Eso no debería ser posible como igual a nadie le gustaría tomar un medicamento que no ha sido avalado para ser seguro para las personas", agrega.
Será sólo a través del debate público, con el involucramiento de la ciudadanía y del Estado mismo, como Ricaurte estima que podrán alcanzarse esa transparencia y rendición de cuentas sobre estas innovaciones que no son una promesa o una amenaza venidera, sino algo que ya está moldeando el mundo y afectando vidas cada día que pasa.
¡Ojo con ése 'consejero'!
Antes de recomendarlas como "puente terapéutico", hay ciertas consideraciones a tomar en cuanto a nuevas tecnologías:
- Muchas Apps, no sólo las que dicen ser psicoanalíticas, usan IA o chatbots; estas herramientas pueden ayudar en autorregistro o contención leve, pero no sustituyen la evaluación y tratamiento presencial, sobre todo en riesgo de suicidio, sintomatología psicótica o crisis aguda.
Entonces:
1. No recomendar Apps "psicoanalíticas" como sustituto; si alguien busca psicoanálisis o tiene síntomas complejos, priorizar siempre derivación a un analista o servicio presencial acreditado.
2. Si se busca un "puente" digital, sugerir herramientas generales (registro de ánimo, mindfulness) como complemento, mientras se consigue atención presencial, pero siempre aclarando límites y señales de alarma.
3. Revisar políticas de privacidad de las tecnologías, y si ofrecen derivación a profesionales humanos, es decir, si indica claramente que no sustituye atención clínica.