Nueva estafa en WhatsApp; así replican la voz de un familiar con IA

El avance de la inteligencia artificial ha sido acelerado en los últimos años, lo que han aprovechado los estafadores para buscar obtener beneficios a través de estafas.

Las estafas con el uso de nuevas tecnologías se ha convertido en un problema para los usuarios de redes sociales
Ciudad de México /

Es común que tu mamá, hermanos, familiares o amigos cercanos envíen mensajes de voz por WhatsApp y es en este medio en el que los estafadores encontraron una manera de poder obtener recursos de una forma fácil, únicamente con el uso de la tecnología.

Las estafas por WhatsApp han tomado relevancia en los últimos meses, pero con el avance de la inteligencia artificial (IA) se complica cada vez más el saber si se trata de mensajes reales o si son un fraude.

Cómo funciona la estafa de WhatsApp con IA

Esta modalidad de ataque se conoce como visihing, todo se basa en la clonación de la voz de una persona cercana, basta con acceder a una aplicación desde cualquier tienda de apps con lo que los estafadores abrieron un nuevo mundo.

De acuerdo con el Instituto Nacional de Ciberseguridad de España (INCIBE), solo se necesitan unos segundos de grabación para poder generar una réplica que imita el tono, el timbre y las inflexiones del habla.

Una mujer de nombre Clara, compartió a través de X que recibió un mensaje de voz de su hermana “super informal” pidiendo que le hiciera una transferencia por 500 euros para hacer un pago ya que la aplicación del banco no funcionaba; sin embargo, se trataba de una voz clonada y la mujer perdió su dinero.

Otro de los casos que se han vuelto virales es el de un joven que compartió el audio en el que su mamá de forma desesperada, supuestamente se mete en un problema y le pide ayuda; sin embargo, la señora en encontraba en el mismo lugar.

Los delincuentes copiaron la voz de ella para pedirle dinero pronto, algo que también es posible al robo de cuentas en la aplicación.

Si bien, el joven asegura que la voz coincidía con la de su mamá, conforme pasaban los audios esta se volvía algo falsa.

Él, al saber que es mentira, le responde a su supuesta mamá que le haría la transferencia a la cuenta de siempre, pero los estafadores le insisten que no lo haga porque no tiene la tarjeta para retirar el dinero de esa cuenta y le envían los datos de transferencia para otra persona, que supuestamente es una amiga de ella.

¿Cómo evitar caer en la estafa?

Al igual con otro tipo de estafas, lo importante es mantener la calma. De acuerdo con la plataforma de Ciberseguridad Kaspersky, lo primero sería intentar contactar con el familiar o amigo llamándolo por teléfono o por otro medio.

Además, y viendo que este tipo de estafas seguirá en aumento y que la suplantación de voz puede ser a través de una llamada, es buena idea tener una palabra de seguridad con tus familiares. O sino la tienes, hazle alguna pregunta que solo lo sepa la otra persona.

Imagina que recibes la llamada o mensaje y contestas con un: ¿cuál es el plato preferido de la abuela? Probablemente se haga el silencio al otro lado.

Dependiendo de si tienes audios en público, por ejemplo, en el caso de que tengas algún vídeo en YouTube o en Instagram, serás un blanco más fácil. Pero lo cierto es que no es difícil obtener un audio, en ocasiones a los estafadores les puede bastar hacerte una llamada con cualquier excusa para obtener una grabación.

Aun así, trata de limitar la información personal que compartes en redes y configura los ajustes de privacidad de los servicios que utilices.

KGA 

  • Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de TELEDIARIO; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
LAS MÁS VISTAS