Si has usado las aplicaciones para ver cómo verías si fueras del sexo opuesto, con la Deepfake puedes ser prácticamente cualquier persona.
En los últimos años, millones de personas alrededor del mundo se han dejado seducir por las apps que modifican el rostro para “enseñarnos” como luciríamos si fueras del sexo opuesto al nuestro. Aunque muchas investigaciones e inclusos autoridades han advertido sobre el peligro a nuestra seguridad que representan estas apps, los usuarios las siguen usando sin pensar en las consecuencias.
Pero si creías que no existía algo peor, el Buró de Investigación Federal (FBI por sus siglas en inglés) ha informado que ahora hay estafadores que están tratando de obtener empleos en empresas que tienen acceso confidencial a datos financieros o de clientes, bases de datos corporativas y/o información patentada.
Lee también: ¿FaceApp es peligrosa y roba tus datos? Esto es lo que sabe de la aplicación de moda en Facebook
A través de un aviso público compartido el martes pasado, la agencia estadounidense ha visto recientemente un aumento en el número de quejas sobre la estafa. Los estafadores han estado utilizando falsificaciones profundas como información de identificación personal robada de las víctimas para engañar a los empleadores para que los contraten para trabajos remotos.
Pero, ¿qué es la tecnología “Deepfake”?
Antes de avanzar más en saber cómo funciona esta nueva modalidad de estafa, es prudente detenrse un poco para conocer un poco más del tema central. La tecnología “Deepfake” implica el uso de programas impulsados por IA (Inteligencia Artificial) para crear medios realistas pero falsos de una persona. En la parte del video, la tecnología se puede usar para cambiar la cara de una celebridad por el cuerpo de otra persona. En la parte del audio, los programas pueden clonar la voz de una persona, que luego puede manipularse para decir lo que quieras.
Aunque esta tecnología ya se está utilizando en videos de YouTube con efectos de entretenimiento, el FBI ha demostrado que las falsificaciones profundas también se están usando para esquemas de robo de identidad. “Las quejas informan el uso de suplantación de identidad de voz, o potencialmente falsificación de voz, durante las entrevistas en línea de los posibles solicitantes”, resaltó la agencia.
A pesar de esta evidencia, el FBI no ha indica de forma clara cuál es el objetivo final de los estafadores. Pero la agencia señaló que “algunos puestos solicitados por estos criminales incluyen acceso a PII (información de identificación personal) del cliente, datos financieros, bases de datos de TI corporativas y/o información de propiedad”.
Al tener esta información bajo su poder, los estafadores podrían robar detalles valiosos de las empresas y cometer otros esquemas de fraude de identidad.
¿Cómo detener este robo de identidad?
Pese al mal panorama, el FBI ha detallado que existe una forma para que los empleadores puedan detectar la falsificación profunda. La agencia señaló que la tecnología basada en IA aún puede mostrar fallas cuando el estafador está hablando.
Lee tanbién: ToonMe: La app para hacer tu cara como personaje Pixar y los datos que te pide
“Las acciones y el movimiento de los labios de la persona que se ve entrevistada en la cámara no se coordinan completamente con el audio de la persona que habla”, subrayó. “A veces, acciones como toser, estornudar u otras acciones auditivas no están alineadas con lo que se presenta visualmente”.