Cinco maneras en que los ciberdelincuentes usan IA para estafarte

Las 5 maneras en las que el cibercrimen utiliza la Inteligencia Artificial
Así usan la inteligencia artificial para ciberataques | Foto: Pexels

La inteligencia artificial es una innovadora herramienta con la que se busca facilitar procesos a los seres humanos. Sin embargo, el cibercrimen ha hecho uso de ésta para llevar a cabo sus ataques y acciones maliciosas, asegura la empresa de ciberseguridad ESET, quienes detallan cinco formas en que se usa esta tecnología para vulnerar a los usuarios.

“Hoy vemos las implicaciones que los actores maliciosos le dan a la IA y cómo la utilizan para robar información sensible y sacar un rédito económico”.

ESET.

Cinco formas en que los ciberdelincuentes usan la inteligencia artificial

Para advertir a los usuarios de las nuevas prácticas maliciosas, los expertos de la empresa de seguridad informática repasan cómo los ciberdelincuentes usan la inteligencia artificial para sus fines criminales.

1. Perfeccionan la suplantación de identidad

Con el auge de chatbots como ChatGPT, se vio un aumento en el envío de correos de phishing, según investigadores de IA en ETH Zurich.

Los criminales encontraron en la inteligencia artificial a un aliado para engañar a las personas para que revelen información sensible, incluso llevándolas a sacar un crédito bancario, según los especialistas de ESET.

Con servicios como GoMail Pro, que posee funciones de ChatGPT, los ciberatacantes mejoran el contenido de los mensajes que los criminales envían a sus víctimas sin que OpenAI detecte o controle esto.

Otra función de la inteligencia artificial es traducir mensajes y mejorar la comunicación entre grupos criminales a nivel global, al grado de coordinar operaciones a gran escala en otros países, según un artículo del Massachusetts Institute of Technology (MIT).

2. Hacen más realistas las estafas por audio y deepfake

La inteligencia artificial ha hecho difícil discernir entre una imagen real y una creada con esta tecnología, advierte ESET. Además, se suman las amenazas de estafas por audio.

Se necesita tan sólo una toma de unos pocos segundo de la voz de una persona, ya sea de un video subido a Instagram o TikTok, por ejemplo, para producir algo peligrosamente convincente.

“La gente debe ser consciente de que ahora estas cosas son posibles, y que el príncipe de Nigeria no habla un inglés entrecortado. De hecho, pueden llamarte con otra voz y te puede poner en una situación muy estresante”.

MIT

Un ejemplo de esto es la estafa al empleado que perdió 24 millones de dólares tras una reunión con quien supuestamente era el director financiero de la compañía, y le pedía la transferencia por ese monto importante de dinero.

[TE RECOMENDAMOS: ¡Alerta! 30 segundos de voz o video bastan para crear clones de “deepfake”, según expertos]

3. Esquivan controles de identidad

Los cibercriminales usan la inteligencia artificial para eludir los controles que verifican la identidad de una persona, advierte ESET.

El mecanismo con el que operan, es mediante un documento de identificación, ya sea falso o robado, en el que se superpone una imagen encima del rostro de la persona real, como si se tratara de un filtro de Instagram.

Los especialistas alertan que, si bien de momento esta práctica se encuentra en un estado básico, es una metodología que podría seguir mejorando y expandiendo su aplicación.

4. Optimizan el doxing

El doxing consiste en publicar información personal de terceros para intimidar, extorsionar o afectar de algún otro modo. Es una práctica afianzada en 2020 con ataques de ransomware, pero con la inteligencia artificial se optimizó.

En el ransomware, los cibercriminales secuestran todos los archivos y roban información de sus víctimas para sumar presión a las organizaciones, amenazándolas con publicar toda esa información privada si no se paga el rescate.

Los ciberdelincuentes entrenan a la IA con una gran cantidad de datos de Internet, como datos personales, para deducir dónde podría estar ubicada una persona.

“La regla es simple: mientras más información haya sobre nosotros en Internet, estamos mucho más vulnerables a este tipo de prácticas”, señalan los especialistas de ESET.

Gracias a ChatGPT, es posible inferir información sensible, como origen étnico o ubicación, al momento de conversar con el chatbot, por lo que Mislay Balaunović, investigador de seguridad, llama a no compartir cualquier dato con esta tecnología.

5. Ofrecen jailbreak como servicio

El cibercrimen ha optado por contratar servicios de jailbreak, en vez de construir sus propios modelos de inteligencia artificial, ahorrándose tiempo y dinero.

“El jailbreaking es el proceso de explotar los defectos de un dispositivo electrónico bloqueado para instalar software distinto al que el fabricante ha puesto a disposición del dispositivo”, según Kaspersky.

Los ciberatacantes pueden modificar el sistema de IA apuntado, y generar respuestas vinculadas a la generación de contenido para correos maliciosos o directamente para escribir código para un malware, eludiendo toda limitación.

La inteligencia artificial no es necesariamente mala

ESET señala que “la tecnología no es buena ni mala”, incluyendo la inteligencia artificial. No obstante, destaca que todo depende de las intenciones con las que se utilice.

“Tal es su alcance que interviene en otras áreas de valor. El impacto de la IA en la educación puede ser más que positivo y hasta está logrando implicancias realmente importantes en un rubro tan crítico como la medicina”.

ESET

Sin embargo, los especialistas precisan que es inevitable hablar de lo que podría pasar en caso de que la tecnología caiga en manos equivocadas.

Qué opinas