31 de Marzo de 2025
Nacional

Las estafas por voz clonada aumentan


Foto: Agencias .

*Así funciona la tecnología detrás de estas llamadas falsas

Agencias . | Ciudad de México | 28 Mar 2025

Delincuentes están empleando herramientas de inteligencia artificial para clonar la voz de personas y realizar estafas telefónicas suplantando identidades. Esta técnica, conocida como "vishing" (phishing por voz), permite a los estafadores engañar a familiares y amigos de las víctimas, solicitando dinero o información sensible. ?


Según un informe de ESET, los ciberdelincuentes toman pequeños fragmentos de una grabación real y, mediante el uso de la inteligencia artificial y los patrones de voz, crean conversaciones y frases para llevar a cabo sus engaños, con consecuencias tan graves como costosas. 


El FBI ha emitido advertencias sobre el aumento de estas estafas. En un comunicado, la agencia señaló que los delincuentes están utilizando IA generativa para explotar a las personas con tácticas engañosas. ?


Un caso destacado ocurrió en Los Ángeles, donde un hombre fue estafado con 25 mil 000 dólares después de que unos estafadores utilizaran inteligencia artificial para replicar la voz de su hijo y le engañaran para que enviara dinero. 


La facilidad con la que se pueden obtener muestras de voz en internet, especialmente a través de redes sociales como Instagram o TikTok, facilita la labor de los estafadores. Estas plataformas contienen innumerables grabaciones de voz que pueden ser utilizadas para crear audios falsos convincentes. ?


El Instituto Nacional de Ciberseguridad (INCIBE) de España ha alertado sobre esta modalidad de fraude. En un caso reportado, una usuaria recibió una llamada de un número desconocido en la que reconoció la voz de su marido solicitando que le enviara un mensaje a otro número.


Al contactar directamente a su esposo, descubrió que no había realizado dicha llamada, lo que sugiere el uso de inteligencia artificial para clonar su voz. 


Para protegerse de estas estafas, las autoridades recomiendan establecer palabras clave o frases de seguridad con familiares y amigos para verificar la autenticidad de las llamadas en situaciones sospechosas.


Además, es esencial confirmar siempre la identidad del interlocutor, especialmente si se solicitan transferencias de dinero o datos sensibles. ?


La Comisión Federal de Comercio de Estados Unidos también advierte a los consumidores sobre el uso de inteligencia artificial en estafas, señalando que los estafadores pueden clonar la voz de un familiar, llamar fingiendo estar en problemas y pedir dinero de inmediato. ?


Es fundamental mantenerse alerta y adoptar medidas preventivas para evitar caer en este tipo de fraudes, que aprovechan los avances tecnológicos para engañar a las personas de manera cada vez más sofisticada.