INICIO
|NACIONAL
|CONGRESO DE LA UNIÓN
|ESTATAL
|INTERNACIONAL
|FINANZAS
|CULTURA
|DEPORTES
|ESPECTÁCULOS
Foto: Agencias .
*Así funciona la tecnología detrás de estas llamadas falsas
Agencias . | Ciudad de México | 28 Mar 2025
Delincuentes están empleando herramientas de inteligencia artificial para clonar la voz de personas y realizar estafas telefónicas suplantando identidades. Esta técnica, conocida como "vishing" (phishing por voz), permite a los estafadores engañar a familiares y amigos de las víctimas, solicitando dinero o información sensible. ?
Según un informe de ESET, los ciberdelincuentes toman pequeños fragmentos de una grabación real y, mediante el uso de la inteligencia artificial y los patrones de voz, crean conversaciones y frases para llevar a cabo sus engaños, con consecuencias tan graves como costosas.
El FBI ha emitido advertencias sobre el aumento de estas estafas. En un comunicado, la agencia señaló que los delincuentes están utilizando IA generativa para explotar a las personas con tácticas engañosas. ?
Un caso destacado ocurrió en Los Ángeles, donde un hombre fue estafado con 25 mil 000 dólares después de que unos estafadores utilizaran inteligencia artificial para replicar la voz de su hijo y le engañaran para que enviara dinero.
La facilidad con la que se pueden obtener muestras de voz en internet, especialmente a través de redes sociales como Instagram o TikTok, facilita la labor de los estafadores. Estas plataformas contienen innumerables grabaciones de voz que pueden ser utilizadas para crear audios falsos convincentes. ?
El Instituto Nacional de Ciberseguridad (INCIBE) de España ha alertado sobre esta modalidad de fraude. En un caso reportado, una usuaria recibió una llamada de un número desconocido en la que reconoció la voz de su marido solicitando que le enviara un mensaje a otro número.
Al contactar directamente a su esposo, descubrió que no había realizado dicha llamada, lo que sugiere el uso de inteligencia artificial para clonar su voz.
Para protegerse de estas estafas, las autoridades recomiendan establecer palabras clave o frases de seguridad con familiares y amigos para verificar la autenticidad de las llamadas en situaciones sospechosas.
Además, es esencial confirmar siempre la identidad del interlocutor, especialmente si se solicitan transferencias de dinero o datos sensibles. ?
La Comisión Federal de Comercio de Estados Unidos también advierte a los consumidores sobre el uso de inteligencia artificial en estafas, señalando que los estafadores pueden clonar la voz de un familiar, llamar fingiendo estar en problemas y pedir dinero de inmediato. ?
Es fundamental mantenerse alerta y adoptar medidas preventivas para evitar caer en este tipo de fraudes, que aprovechan los avances tecnológicos para engañar a las personas de manera cada vez más sofisticada.
31 Mar 2025 - Abandera PAN a Arnulfo Rodríguez González como aspirante a la Presidencia Municpal de Banderilla
31 Mar 2025 - Mexicanos se quedan sin chamba: Se pierden más de 200 mil puestos de trabajo en febrero
30 Mar 2025 - Los cuernos del diablo
30 Mar 2025 - Abren convocatoria para presentar candidaturas para la sede de la 8va Cumbre Iberoamericana de Agendas Locales de Género 2026
30 Mar 2025 - Iglesia Católica en México lanza red de ayuda para afectados por lluvias torrenciales en Reynosa
29 Mar 2025 - Feministas protestan en México contra exfutbolista Blanco, acusado de intento de violación
29 Mar 2025 - Decomisan decenas de despensas firmadas por el CJNG
29 Mar 2025 - Las playas del mundo, en peligro
29 Mar 2025 - Bajo amenaza, la mitad de los arrecifes del Atlántico
INICIO
|NACIONAL
|CONGRESO DE LA UNIÓN
|ESTATAL
|INTERNACIONAL
|FINANZAS
|CULTURA
|DEPORTES
|ESPECTÁCULOS