Ciberdelincuentes clonan voz y logran transacción por 35 mdd en banco de Emiratos Árabes Unidos - LJA Aguascalientes
22/11/2024

CIUDAD DE MÉXICO.- Ciberdelincuentes usaron una voz sintética creada por Inteligencia Artificial para clonar la voz del director de una empresa y engañar al gerente de un banco, en los Emiratos Árabes Unidos, para hacer una transacción legítima por 35 millones de dólares, informó Forbes.

Según un documento judicial citado por la revista, la estafa se realizó en enero del año pasado, cuando el gerente de dicho banco recibió una llamada y la persona al otro lado de la bocina, quien usó la tecnología conocida como “deep fake”, aseguró ser el director de una compañía con quien había hablado con anterioridad. “Sonaba igual”, declaró a Forbes, de acuerdo con RT en Español.

Los ciberdelincuentes dijeron que habían contratado a un abogado llamado Martin Zelner para coordinar las transferencias, y el banco recibió una serie de correos electrónicos donde se confirmaba la cantidad de dinero que debían transferir y a qué cuentas.

El gerente autorizó las operaciones por 35 millones de dólares que fueron transferidas a diversas cuentas en todo el mundo.

“Desafortunadamente, todo resultó ser una sofisticada estafa”, según los investigadores de Dubai, quienes revelaron que en el plan participaron 17 personas y el dinero robado fue repartido en todo el mundo, incluidos 400 mil dólares depositados a cuentas en Estados Unidos gestionadas por Centennial Bank.

No es la primera estafa de esta naturaleza. En 2019, una empresa energética del Reino Unido fue estafada de manera similar y los ciberladrones robaron 243 mil dólares, haciéndose pasar por el director ejecutivo de una empresa.

“Los ‘deep fakes’ de video y audio representan el fascinante desarrollo tecnológico del siglo XXI, pero también son increíblemente peligrosos y representan una gran amenaza para los datos, el dinero y las empresas”, señaló el expolicía británico y experto en ciberseguridad de la compañía ESET, Jake Moore.

“Actualmente estamos viendo cómo actores malintencionados utilizan su experiencia y recursos para acceder a lo último en tecnología para manipular a personas que, inocentemente, desconocen el alcance de estas tecnologías ‘deep fake’ e incluso su existencia”, añadió.

Es probable que esto se vuelva recurrente, lamentó el experto.


“Sin la educación ni el conocimiento de este nuevo tipo de vector de ataque, así como mejores métodos de autentificación, es probable que más empresas sean víctimas de conversaciones muy convincentes”, indicó.

 


Show Full Content
Previous Regularizar autos chocolate costará 2,500 pesos, anuncia AMLO
Next Competitivos PAN y MC rumbo a elección de gobernador de 2022: C&E
Close

NEXT STORY

Close

Previo a vacunación en la capital de Aguascalientes, disminuyen las hospitalizaciones por covid-19

21/03/2021
Close