Martes 13 de Mayo de 2025 | Aguascalientes.
tecnologia

IA imitaría la voz de tus conocidos, podrías caer en extorsión

Dinero en Imágen | 27/03/2023 | 17:25

El avance tecnológico que hemos visto con la Inteligencia Artificial (IA) es sorprendente, pero también preocupante. Si esta tecnología puede imitar voces de conocidos y seres queridos.

Cada vez se registran más casos de supuestas llamadas telefónicas de un ser querido o un amigo solicitando su ayuda y dinero, y ante la incertidumbre, lo primero en lo que se piensan es en ayudar en lugar de que están siendo víctimas de una estafa que utiliza la IA para imitar voces.

Las estafas telefónicas son un método recurrente para los actores maliciosos a la hora de intentar timar, ya sea para conseguir dinero o para robar datos como contraseñas o claves bancarias.

Los estafadores están utilizando programas de generación de voz con tecnología de Inteligencia Artificial para, a través de llamadas telefónicas, hacerse pasar por personas cercanas.

Así, aunque durante la llamada la víctima se encuentre extrañada y haya detalles que no logre entender, este tipo de estafadores utilizan el elemento definitivo para convencer a la víctima de que se trata de una persona cercana y debe ayudar: la voz.

Las estafas telefónicas causaron la pérdida de hasta 11 millones de dólares durante el año 2022, convirtiendo las estafas de impostores en el segundo tipo más común en Estados Unidos.

Estos programas de IA analizan la voz de la persona a la que se quiere imitar y busca los patrones que consolidan los matices y el sonido único de la persona en cuestión al hablar. Es decir, los programas se entrenan para imitar el tono, el acento e, incluso, la edad, y luego recrearlos.

Para que una IA imite una voz solo necesita una pequeña muestra de audio. Por ejemplo, en algunos programas basta con utilizar 30 segundos de la persona hablando para poder imitarla.

Estos audios se pueden obtener de cualquier vídeo en el que salga hablando la persona a la que se quiere imitar, por ejemplo, en publicaciones en redes sociales como Instagram o TikTok.

Según señala el analista en ciberseguridad de Kaspersky, Marc Rivero, una de estas señales era el lenguaje forzado o "robotizado" de la voz que utilizaba el programa. Otra señal podía ser una pausa breve tras una intervención del usuario, ya que el sistema debía procesar la información.

Según Rivero, también se podía identificar la "falta de interacción humana típica", como la capacidad de responder a preguntas imprevistas.

En caso de recibir una llamada de estas características, en cuanto el usuario identifique una mínima sospecha, debe "establecer algún tipo de identificación para determinar sin ningún tipo de duda la identidad del hablante del otro extremo".

Algunas opciones planteadas son intentar hablar de algún tema que solo la persona real supiese o plantear "pequeñas trampas" durante la conversación que indiquen que hay intento de engaño.