¿Te llegó una nota de voz sospechosa? ¡Aguas! Este tipo de estafas crecen en WhatsApp
Hoy en día, las redes sociales, entre ellas WhatsApp, son parte fundamental de nuestra vida. Por ello, es importante estar alerta ante cualquier tipo de mensaje e incluso notas de voz que lleguen a tu celular, ya que los ciberdelincuentes podrían realizar una estafa por medio de “deepfake”. ¿Cómo puedes evitar no caer en sus manos? En Unotv.com te lo compartimos.
Condusef alerta por estafa con notas de voz generadas con IA
La Comisión Nacional para la Protección de Defensa de los Usuarios y Servicios Financieros (Condusef) alertó por un método de estafa a través notas de voz generadas con inteligencia artificial (IA).
💬 ¿Recibiste una nota de voz sospechosa?
— CONDUSEF (@CondusefMX) January 15, 2025
La #InteligenciaArtifical puede imitar voces y pedir dinero.
No compartas datos sin confirmar. #InteligenciaFinanciera 🤖 pic.twitter.com/2sA2elZ7lD
Los ciberdelincuentes envían un mensaje a tus contactos, con el objetivo de intentar cometer un fraude, por lo que se hacen pasar por el titular de la línea, asegurando que se encuentra en una situación de emergencia, para obtener dinero.
Sin embargo, todo se trata de una estafa, la cual se conoce como “deepfake”, ya que las notas de voz se realizan por medio de inteligencia artificial (IA). La voz de la persona es clonada.
¿Qué hacer para evitar ser víctima de este fraude?
Según la Condusef, en caso de recibir un mensaje sospechoso, lo primero que debes hacer es verificar que sea de alguno de tus contactos. De no ser así, es mejor no abrirlo.
Tampoco tienes que abrir los enlaces o archivos adjuntos que provengan de números desconocidos, ya que al dar clic podrían robar tus datos personales e incluso bancarios.
Es importante que siempre confirmes la autenticidad de cualquier texto o nota de voz, lo cual ayudará a que no seas víctima de una estafa.
Asimismo, antes de eliminar los números desconocidos, debes marcarlos como spam para que no te vuelvan a mandar nada.
¿En qué consiste el “deepfake” y cómo estafan con notas de voz?
El llamado “deepfake” consiste en generar sonidos, imágenes o videos por medio de inteligencia artificial (IA), de acuerdo con National Geographic.
Este tipo de material permite que los ciberdelincuentes obtengan datos personales, informáticos o financieros, logrando estafar a sus víctimas.
En un caso reciente, a una mujer la estafaron por medio de “deepfake” en Francia, ya que los criminales se hicieron pasar por nada más y nada menos que el galán de Hollywood, Brad Pitt. A la víctima le robaron 830 mil euros, lo equivalente a casi 17 millones de pesos mexicanos.
Ahora ya lo sabes, si te llega una nota de voz por WhatsApp de un contacto que desconoces, mejor no lo abras, ya que podrías caer en las garras de los hackers y poner en peligro tu integridad, o peor aún, tus finanzas.