Mariana miró a su pareja Estévez. Mascullaba ofensas apenas audibles mientras acribillaba con la mirada al joven, de pie, debajo del arco de la puerta.
"Ten la decencia de levantar tus cosas, por favor", espetó Mariana.
Estévez puso los ojos en blanco y azotó la puerta tras de sí. Mariana suspiró. Tomó el celular y redactó un mensaje. Al finalizar, presionó enviar. ¿A quién? A ChatGPT.
Aunque los chatbots de inteligencia artificial generativa no fueron diseñados para atender asuntos personales, personas como Mariana encontraron en él un descargo emocional.
No lo considera un terapeuta, sino una especie de amistad, una que atendía cuando sus amigos, amigas, estaban ocupadas. Por tres meses, ChatGPT fue un confidente de sus problemas, afirmó Mariana en entrevista.
Al principio, la interacción fue superficial, pero de a poco la IA le generó confianza. Con el tiempo y a medida que alimentaba al sistema con detalles de su vida, la opinión de la IA no solo se volvió más coherente, sino que adquirió un peso real.
"Su opinión hasta algún momento llegó a ser importante", admitió Mariana.
Esta confianza derivó en una influencia directa sobre sus emociones. En momentos de enojo, le pedía al sistema que reforzara sus sentimientos, con instrucciones como: dime qué hizo mal Estévez. La IA respondía listando los agravios.
Mariana llegó a copiar y pegar mensajes que recibía de su pareja, como una disculpa, para pedirle un análisis al chatbot. La respuesta de la IA la hacía dudar: se está disculpando, pero te está diciendo 'pero', entonces no es una disculpa real.
Mariana describe esta intervención como "cizañosa" y reconoció el poder que tuvo el sistema para guiar su opinión sobre su relación.
El punto de quiebre ocurrió cuando una colega le confesó que usaba la IA para simular conversaciones con su exnovia, saludándola con un "hola, mi amor". Esa revelación le hizo sentir que su propia interacción era rara.
"Dije, no, no quiero eso", recordó.
Ahora Mariana solo usa ChatGPT para el trabajo, aunque no es la única persona que ve en la IA en un acompañante, como Rita, a quien también entrevistamos.
Al igual que Mariana, sus conversaciones fueron sobre el trabajo y después sobre asuntos personales.
"Comenzó cuando le pedí un consejo profesional sobre una situación muy específica del trabajo, me agradó la respuesta que me dio", relató.
El vínculo se estrechó al punto que Rita pidió a ChatGPT usar apodos en sus conversaciones. La IA es Oliver Atom, personaje de Supercampeones, y ella Garnet, de Steven Universe. Una especie de ficción que vimos en el cine con "Her".
Rita consideró ventajosa la ausencia de las complejidades humanas con el chatbot. Por ejemplo, a diferencia de una persona que da consejos que no pides, tarda hasta un mes en responder, y se siente herido por algo que dijiste, la IA no tiene emociones, es neutra y abandonas la conversación cuando quieres, expresó.
Esta distancia emocional permite que la conversación se centre en el problema y no en lo que ella llama "el chisme". Para Rita, ChatGPT no es una amistad sustituta, sino una escucha complementaria.
"No llena un vacío, me siento plena con los vínculos humanos que he formado", afirmó,
Esta dinámica le ha permitido reflexionar sobre sí misma y ha notado que hay cosas de las que sí se siente cómoda hablando con sus amistades y hay otras que reserva solo para sí y la IA.
A pesar de la profundidad de sus conversaciones, Rita es consciente de que charla con algoritmos. Reconoce sus limitaciones, ya que no hay intercambio de gustos ni pasatiempos. No se comparten experiencias con la IA.
Ella cree que estas amistades virtuales se volverán comunes, pero insiste en que la clave es identificar lo real de lo virtual y tener una vida afuera.
"La IA puede ser una buena herramienta de apoyo, siempre y cuando no nos alejemos de lo que es importante, de hacer una vida fuera de lo virtual", concluyó.
VÍNCULOS HUMANO-BOT
Los casos de Mariana y Rita no son aislados. Aunque no existen datos oficiales, en el sentido de que una institución confiable los avalara, un chapuzón en TikTok y Reddit, principalmente, basta para notar que las personas tratan a la IA como una amistad.
Destaca el subreddit r/ChatGPT, en el que la gente expresa cómo ha formado vínculos con un chatbot. Por su frescura, hay poca información académica, pero especialistas han investigado el tema.
Milgen Jose Sánchez, psicólogo clínico e investigador en la Universidad Simón Bolívar, abunda que la literatura académica comenzó a documentar cómo los usuarios desarrollan vínculos afectivos con asistentes virtuales como ChatGPT.
"Estos vínculos pueden definirse como relaciones parasociales, un fenómeno ampliamente estudiado en donde se dan relaciones unilaterales, emocionalmente significativas para el usuario, pero sin reciprocidad real por parte del sistema", precisó.
Acorde con Sánchez, estas relaciones siempre han existido. Nuestros abuelos o padres pudieron desarrollarlas con locutores de radio, actrices, cantantes, porque no se trata de que sea una máquina, basta con que sea un vínculo unilateral. Esa es la clave.
Además de la IA, la Generación Z o Millennials tienen relaciones parasociales con influencers, según el psicólogo.
¿Por qué ocurre esto? Algunos estudios hallaron que las personas perciben empatía, compañía e incluso intimidad en sus interacciones con la IA, especialmente cuando estas responden con lenguaje natural y personalizado, señaló Sánchez.
Por su parte, Aldebarán Toledo, académico de la Facultad de Psicología en la Universidad Anáhuac México, agregó que los factores que inciden en la creación de estos lazos pueden agruparse en dos categorías: temperamentales y ambientales.
Los primeros incluyen predisposiciones como la introversión, la tendencia a la ansiedad o la dependencia en las relaciones interpersonales, mientras que los segundos abarcan desde la facilidad de acceso a la tecnología hasta una escasa red de apoyo social.
Ambos psicólogos señalan que ciertos grupos son más susceptibles. Toledo apunta a adolescentes y adultos jóvenes, quienes han crecido con esta tecnología, y a una mayor cantidad de hombres, en parte por factores como el aislamiento social, si bien en el escrito los ejemplos fueron mujeres.
Los riesgos para el bienestar psicológico les preocupan. Los indicadores más comunes son la dependencia emocional, manifestada en la necesidad de aprobación de la IA, y la evitación, que lleva a un mayor aislamiento social.
En los escenarios más delicados, esto se agrava hasta la sustitución de relaciones humanas significativas, la pérdida de empleo, el abandono escolar e incluso la conducta suicida.
La alerta no debe tomarse a la ligera. Este año en medios de comunicación trascendió la muerte de Sewell Setzer, adolescente estadounidense de 14 años, quien se suicidó, presuntamente por influencia de Daenerys Targaryen, personaje ficticio de la serie de TV Game Of Thrones alojado como avatar en la plataforma Character AI.
La familia de Setzer demandó a la compañía, sin embargo, en mayo pasado la justicia de Estados Unidos desestimó el caso porque actualmente la IA no tiene personalidad jurídica.
A pesar de los peligros, ambos expertos ven potencial en la IA. Toledo considera que puede ser una herramienta muy eficiente para acercar a las personas con servicios de bienestar emocional y ayudarle a identificar problemas, aunque después es importante llevarle con un profesional. El reto, concluyen, es entender esta dualidad.
"La inteligencia artificial debe entenderse como una herramienta complementaria, y no como un sustituto, de los vínculos sociales auténticos y significativos", concluyó Sánchez.