¡Alerta! 30 segundos de voz o video bastan para crear clones de “deepfake”, según expertos

¿Sabías que con tan sólo 30 segundos de voz o video se pueden crear clones deepfakes difíciles de reconocer?
¡Los criminales no necesitan mucho para hacerte un deepfake! | Foto: AFP

Los ciberdelincuentes sólo necesitan 30 segundos de video o voz para crear clones de una persona con deepfake. Desde la perspectiva de Cisco, empresa de ciberseguridad, dichas suplantaciones son tan convincentes que ni las personas cercanas a la víctima logran distinguir la diferencia con la persona real.

[TE RECOMENDAMOS: No caigas en estafas con “deepfake”, te roban tu dinero: ¿cómo identificar estos fraudes con IA?]

“Ya nadie está a salvo” del deepfake, alertan expertos

Treinta segundos de material en bruto, voz o vídeo, bastan ahora para crear clones deepfake con una calidad que ni siquiera tu mujer, marido o hijos podrían distinguir. Ya nadie está a salvo”, alerta el experto en ciberseguridad Mark T. Hofmann.

En muchos casos, el ciberdelincuente ni siquiera necesita llamar a la víctima, pues las redes sociales de la gente están llenas de material de audio y vídeo, según Todd Wade, experto en seguridad de la información.

Asimismo, las constantes filtraciones de datos en la deep web pueden ayudar a suplantar identidades, ya que estas también pueden exponer información como:

  • Dirección
  • Número de teléfono
  • Correo electrónico
  • Número de seguridad social

Fuente: Cisco

¡Los delincuentes usan tus datos para extorsionarte!

Una vez obtenidos la apariencia y voz de la persona, así como los datos, los ciberdelincuentes pueden utilizar esta información para hacerse pasar por alguien con autoridad para realizar un trámite o transacción, según Cisco.

Los atacantes incluso pueden hacer creer a la víctima que su hijo está secuestrado o que su empleo está en peligro si no le hace un favor a su jefe, de acuerdo con los especialistas.

[TE RECOMENDAMOS: ¡No caigas! Criminales usan deepfakes en YouTube, publicidad y citas falsas para estafarte]

¡Así aprovechan los deepfakes para hacerte daño!

En enero de 2024, un empleado de finanzas de una multinacional con sede en Hong Kong recibió un supuesto email del director financiero de la empresa.

El supuesto directivo hablaba de realizar transacciones confidenciales, ante el desconcierto del trabajador, por lo que se agendó una videollamada para dar legitimidad a la conversación

En la llamada participaron varias personas con altos cargos, así que el trabajador accedió a los tratos y realizó 15 pagos por un total de 25.6 millones de dólares a cinco cuentas bancarias locales.

Cuando las transacciones fueron comunicadas a la oficina central, el empleado supo que el director financiero no solicitó transferencia alguna y los interlocutores no eran reales, sino que se suplantó su identidad con IA, según dijo el jefe de policía a la Radio Televisión de Hong Kong.

“Creo que el estafador descargó los vídeos con antelación y luego utilizó la inteligencia artificial para añadir voces falsas y utilizarlas en la videoconferencia”.

Baron Chan Shun-ching, jefe de la policía de Hong Kong

Alertan por un aumento en los casos de clonaciones con IA

Al momento del caso mencionado, la policía hongkonesa había encontrado al menos 20 casos en los que se usó inteligencia artificial para crear deepfakes y obtener dinero mediante engaños, según informó CNN en febrero.

Las bandas criminales que se hacen pasar por los directores de la empresa están creciendo en todo el mundo, según Todd Wade; mientras que Luke Secrist, CEO de BuddoBot, alerta por la sofisticación “espeluznante” de estos ataques.

Una de las razones por la que estas amenazas evolucionan es que la IA puede usarse para desarrollar estafas que eluden las defensas tradicionales y atacan directamente a las personas, quienes son vulnerables.

“Estamos empezando a ver cada vez más actores de amenazas que no son necesariamente técnicamente sofisticados, pero que son buenos manipulando a la gente (…) Por eso tienen tanto éxito. Tienen mucho dinero. Y cuando tienes dinero, puedes añadir mucha sofisticación a tus trampas”.

Nick Biasini, jefe de divulgación de Cisco Talos.

Asimismo, los expertos advierten que la tecnología ha progresado al punto en que cada vez es más difícil distinguir un deepfake de un video o audio real.

Eventualmente, los patrones extraños como las manos dibujadas de manera extraña se están superando y los deepfakes son más realistas a partir de estrategias como centros de llamada que marcan solo para grabar un simple “Hola, ¿quién es?“.

[TAMBIÉN LEE: ¡Alerta! Usan “deepfake” de Lionel Messi para promover una app fraudulenta]

La prevención es la mayor arma contra los deepfakes

Los mecanismos de ciberdefensa estándar podrían quedar rebasados para evitar suplantaciones con deepfake por lo que el “firewall humano” es la principal barrera de defensa, según los expertos.

En este sentido, Mark T. Hoffman reconoce la importancia de informar a la gente sobre los nuevos riesgos, sin asustarla. Por esta razón, recomienda desconfiar de cualquier petición poco común, sin importar que venga de un familiar o compañero.

Una buena regla general para el mundo de los deepfakes es desconfiar de cualquier petición fuera de lo común, venga de quien venga. Hofmann dice que las familias podrían acordar una palabra clave para usar por teléfono en caso de duda.

“Hacer preguntas de seguridad o devolver la llamada al número real es un buen consejo”, dice Hofmann. “Pueden robarte la voz, pero no los conocimientos”.

Qué opinas