Es posible hackear la autenticación por voz en los bancos usando deepfake

Publicado por: La Redacción - info@generacionyrd.com

Una investigación realizada por especialistas en auditorías informáticas de la firma de seguridad Symantec ha detectado al menos tres casos de fraude financiero que involucran el uso de audios falsos generados por software de inteligencia artificial, una práctica conocida como deepfake, empleada frecuentemente en sitios de contenido para adultos.

Esta clase de software puede ser entrenado utilizando una cantidad considerable de registros de audio; en este caso, los registros correspondían a ejecutivos bancarios que jamás imaginaron que esta clase de información sin asegurar podría ser empleada para un ciberataque.

Hugh Thompson, especialista en auditorías informáticas a cargo de esta investigación, afirma que los actores de amenazas podrían haber usado cualquier registro de voz a su disposición, incluyendo material audiovisual propiedad de las compañías, declaraciones ante los medios de comunicación, conferencias, notas de voz, entre otros recursos para construir un modelo de voz de la víctima. “Para funcionar, el registro de voz creado con inteligencia artificial debe rayar en la perfección”, afirma el experto.

Según la investigación, los hackers incluso editaron el audio generado por inteligencia artificial, agregando ruido de fondo para dificultar el trabajo de los expertos en forense digital. “Es una estafa altamente sofisticada, cualquier experto en ciberseguridad podría ser engañado usando esta variante de ataque “, afirma Thompson.

El Dr. Alexander Adam, especialista en auditorías informáticas de una importante universidad, afirma que el desarrollo e implementación del software de inteligencia artificial requiere enormes recursos económicos, de tiempo e intelectuales, por lo que los actores de amenazas detrás de esta campaña deben contar con un respaldo importante. “Tan sólo el proceso de entrenamiento del software de inteligencia artificial costaría miles de dólares”, añadió.

Por otra parte, especialistas del Instituto Internacional de Seguridad Cibernética (IICS) agregan que se requieren enormes capacidades de cómputo para construir una herramienta de inteligencia artificial capaz de imitar la voz de una persona, además las fuentes de donde se tomen los registros de voz de las víctimas deben ser lo suficientemente claras y duraderas para ayudar al software a detectar plenamente factores como entonación, ritmo de habla y las palabras más frecuentemente utilizadas del objetivo del ataque.

Fuente: Noticias Seguridad

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *