Las personas valoran más las muestras de empatía cuando creen que procede de un ser humano, aunque en realidad la respuesta haya sido generada por una inteligencia artificial (IA).
Una investigación liderada por la Universidad Hebrea de Jerusalén que publica Nature Human Behaviour reclutó a mas de 6.000 participantes en nueve experimentos, para estudiar si se percibe de forma diferente la empatía si se etiquetaba como procedente de un ser humano o de un chatbot.
El resultado fue que las respuestas atribuidas a un ser humano se perciben como más solidarias, con mayor resonancia emocional y más afectuosas que las respuestas idénticas generadas por IA, indicó la universidad.
En todos los casos, las respuestas fueron elaboradas por grandes modelos de lenguaje (LLM) y, sin embargo, los participantes calificaron sistemáticamente las respuestas ‘humanas’ como más empáticas, más solidarias y más satisfactorias emocionalmente que las idénticas de la IA.
“Estamos entrando en una era en la que la IA puede producir respuestas que parecen y suenan empáticas”, pero la gente sigue prefiriendo “sentir que otro humano realmente entiende, siente con ellos y se preocupa”, destacó Anat Perry, de la Universidad Hebrea de Jerusalén y firmante del estudio.
La preferencia era especialmente marcada por las respuestas que hacían hincapié en el intercambio emocional y la atención genuina (los componentes afectivos y motivacionales de la empatía) en lugar de la mera comprensión cognitiva.
Los participantes estaban incluso dispuestos a esperar días o semanas para recibir una respuesta de un humano antes que obtener una respuesta inmediata de un chatbot.
Además, cuando los participantes creían que una IA podía haber ayudado a generar o editar una respuesta que pensaban que era de un humano, sus sentimientos positivos disminuían significativamente.
En la actualidad, agregó Perry, se ha convertido en algo natural pasar los correos electrónicos o mensajes por la IA, pero “nuestros hallazgos sugieren un coste oculto: cuanto más confiamos en la IA, más se corre el riesgo de que nuestras palabras parezcan huecas”, declaró.
A medida que la gente empieza a asumir que cada mensaje está generado por IA, “la sinceridad percibida, y con ella, la conexión emocional, puede empezar a desaparecer."
Aunque la IA resulta prometedora para su uso en entornos educativos, sanitarios y de salud mental, el estudio pone de relieve sus limitaciones.
La IA puede ayudar a escalar los sistemas de apoyo, “pero en los momentos que requieren una conexión emocional profunda, la gente sigue queriendo el toque humano”, dijo la investigadora.