• Política y Seguridad
  • Opinión
  • Tendencias
  • Login
No Result
View All Result
  • Política y Seguridad
  • Opinión
  • Tendencias
No Result
View All Result
No Result
View All Result

Con “Deepfake” ya puedes ser otra persona en una videollamada

by Alberto Zárate
julio 2, 2022
in Destacado, Política y Seguridad

Si has usado las aplicaciones para ver cómo verías si fueras del sexo opuesto, con la Deepfake puedes ser prácticamente cualquier persona.

En los últimos años, millones de personas alrededor del mundo se han dejado seducir por las apps que modifican el rostro para “enseñarnos” como luciríamos si fueras del sexo opuesto al nuestro. Aunque muchas investigaciones e inclusos autoridades han advertido sobre el peligro a nuestra seguridad que representan estas apps, los usuarios las siguen usando sin pensar en las consecuencias.

Pero si creías que no existía algo peor, el Buró de Investigación Federal (FBI por sus siglas en inglés) ha informado que ahora hay estafadores que están tratando de obtener empleos en empresas que tienen acceso confidencial a datos financieros o de clientes, bases de datos corporativas y/o información patentada.

Lee también: ¿FaceApp es peligrosa y roba tus datos? Esto es lo que sabe de la aplicación de moda en Facebook

A través de un aviso público compartido el martes pasado, la agencia estadounidense ha visto recientemente un aumento en el número de quejas sobre la estafa. Los estafadores han estado utilizando falsificaciones profundas como información de identificación personal robada de las víctimas para engañar a los empleadores para que los contraten para trabajos remotos.

Tecnología-Deepfake-robo-de-identidad-FBI
Aunque ya se ha usado en el cine con fines de entretenimiento, según el FBI, los estafadores han estado explotando la tecnología “Deepfake” para hacerse pasar por candidatos de trabajo durante las entrevistas para puestos remotos. Foto: Capturas de YouTube.

 

Pero, ¿qué es la tecnología “Deepfake”?

Antes de avanzar más en saber cómo funciona esta nueva modalidad de estafa, es prudente detenrse un poco para conocer un poco más del tema central. La tecnología “Deepfake” implica el uso de programas impulsados ​​​​por IA (Inteligencia Artificial) para crear medios realistas pero falsos de una persona. En la parte del video, la tecnología se puede usar para cambiar la cara de una celebridad por el cuerpo de otra persona. En la parte del audio, los programas pueden clonar la voz de una persona, que luego puede manipularse para decir lo que quieras.

Aunque esta tecnología ya se está utilizando en videos de YouTube con efectos de entretenimiento, el FBI ha demostrado que las falsificaciones profundas también se están usando para esquemas de robo de identidad. “Las quejas informan el uso de suplantación de identidad de voz, o potencialmente falsificación de voz, durante las entrevistas en línea de los posibles solicitantes”, resaltó la agencia.

 

A pesar de esta evidencia, el FBI no ha indica de forma clara cuál es el objetivo final de los estafadores. Pero la agencia señaló que “algunos puestos solicitados por estos criminales incluyen acceso a PII (información de identificación personal) del cliente, datos financieros, bases de datos de TI corporativas y/o información de propiedad”.

Al tener esta información bajo su poder, los estafadores podrían robar detalles valiosos de las empresas y cometer otros esquemas de fraude de identidad.

 

¿Cómo detener este robo de identidad?

Pese al mal panorama, el FBI ha detallado que existe una forma para que los empleadores puedan detectar la falsificación profunda. La agencia señaló que la tecnología basada en IA aún puede mostrar fallas cuando el estafador está hablando.

Lee tanbién: ToonMe: La app para hacer tu cara como personaje Pixar y los datos que te pide

“Las acciones y el movimiento de los labios de la persona que se ve entrevistada en la cámara no se coordinan completamente con el audio de la persona que habla”, subrayó. “A veces, acciones como toser, estornudar u otras acciones auditivas no están alineadas con lo que se presenta visualmente”.

Tags: ¿Cómo detener el robo de identidad?¿cómo funciona la tecnología Deepfake?¿qué es el Deepfake?¿Qué es la tecnología Deepfake?app DeepfakeDeepfakeDeepfake FBIrobo de identidadtecnología Deepfake

Alberto Zárate

Orgullosamente FES Aragón UNAM. Melómano, amante de andar en bici, fotógrafo callejero y fanático de los viajes en el tiempo. Si tienes una historia que contar manda DM por Instagram

Next Post

Bolsa de Empleo en Valle de Chalco: fechas, sede y documentos que debes llevar

  • Quiénes somos
  • Política de Privacidad
  • Ventas

Derechos Reservados. Datanoticias, 2025

No Result
View All Result
  • Política y Seguridad
  • CDMX y EDOMEX
  • Opinión
  • Tendencias
  • Becas, Cursos & Apoyos
  • ¿Quiénes somos?
  • Tendencias
  • Opinión

Derechos Reservados. Datanoticias, 2025

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In