Condusef alerta sobre estafas por clonación de voz con IA; suplantan a familiares

La Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) advirtió sobre estafas telefónicas en las que utilizan inteligencia artificial (IA) para clonar las voces de familiares o amigos, haciéndose pasar por ellos. 

Este nuevo modus operandi de los delincuentes, en los que hacen uso de la nueva tecnología para llevar a cabo actividades ilícitas, se ha vuelto cada vez más frecuente en México, por lo que las autoridades federales han alertado a los ciudadanos para no caer en este tipo de fraudes. 

Un estudio global realizado por McAfee, empresa especializada en seguridad informática, expone que una de cada diez personas encuestadas ha recibido un mensaje de un clon de voz con IA, y el 77% han perdido dinero tras ser víctimas de estos engaños. 

¿Cuál es la forma de operar en este nuevo tipo de estafas? 

Los criminales recopilan fragmentos de la voz de un conocido de la víctima, regularmente a través de sus redes sociales, en videos o audios, que se encuentran en internet. Después, estos son pasados a sistemas de inteligencia artificial (IA) que pueden replicar de manera exacta el tono, la entonación y la pronunciación al hablar de la persona, logrando que diga cualquier mensaje, suplantando su identidad. 

De esta manera, los estafadores realizan llamadas telefónicas a las víctimas, haciéndose pasar por sus familiares, amigos o conocidos, simulando una situación de emergencia como un robo, secuestro o accidente; con el fin de obtener una cantidad monetaria o información personal de la persona que está siendo estafada. 

Recomendaciones para evitar caer en esta nueva forma de operar 

La Secretaría de Seguridad y Protección Ciudadana (SSPC) del Gobierno de México, mediante la Dirección General de Gestión de Servicios, Ciberseguridad y Desarrollo Tecnológico, hace las siguientes recomendaciones para evitar ser víctima de una estafa por clonación de voz con IA. 

Mantener la calma; no actuar de forma impulsiva ante la presión o la angustia del hecho, pensar con claridad permitirá identificar señales de alerta. 

Ante una solicitud de dinero por una supuesta emergencia, establecer comunicación con la persona por otra vía. 

Compartir información sobre estafas con voces clonadas con IA con amigos y familiares; tener información sobre este tipo de delitos favorecerá que se esté alerta y se conocerá la manera adecuada de actuar. 

Activar la verificación de dos pasos en aplicaciones digitales y establecer una palabra clave con familiares. 

Evitar responder llamadas o mensajes de números desconocidos, en caso de tener que hacerlo, jamás brindar información hasta confirmar la veracidad de la fuente. 

Proteger la privacidad de la voz; evitar compartir grabaciones o mensajes de voz en redes sociales u otras plataformas públicas donde puedan ser accesibles para los ciberdelincuentes. 

Share

You may also like...