Un estudio realizado por expertos de universidades del Reino Unido reveló que es posible generar una inteligencia artificial (IA) que tenga la capacidad de adivinar contraseñas solo analizando el sonido que producen las teclas al momento de ser pulsadas para escribirlas.
De acuerdo con los investigadores, la decodificación de las contraseñas presenta un éxito de hasta 95% siempre y cuando se entrene al programa usando un celular para conseguir las grabaciones del sonido de las teclas.
También los investigadores advirtieron sobre las implicaciones que esto tiene para la seguridad cibernética: con el aumento en el uso de herramientas como Zoom y la proliferación de dispositivos con micrófonos incorporados, se ha ampliado la amenaza de ataques cibernéticos basados en el sonido.
Así funcionó el experimento con Inteligencia Artificial
Especialistas de las universidades de Surrey, Durham y Royal Holloway de Londres llevaron a cabo un experimento en el que presionaron cada una de las 36 teclas de un MacBook Pro en múltiples ocasiones, variando los dedos y la presión. Los sonidos resultantes fueron capturados tanto a través de una llamada en Zoom como con un smartphone cercano al teclado.
Luego, desarrollaron un sistema de aprendizaje automático para reconocer las características acústicas asociadas a cada tecla.
Este programa fue entrenado con los datos y, al ser probado, logró tasas de precisión de lectura del 95 %, cuando la grabación se hacía a través de una llamada telefónica, y el 93 %, cuando se hacía a través de una llamada de Zoom.
Aunque no es la primera vez que se demuestra que el sonido puede revelar las pulsaciones de las teclas, este nuevo sistema se destaca por su mayor precisión en comparación con lectores similares del pasado.
“La precisión de este tipo de modelos y de este tipo de ataques es cada vez mayor”, declaró a The Guardian Ehsan Toreini, coautor del estudio, publicado en el IEEE European Symposium on Security and Privacy Workshops, de la Universidad de Surrey, quien también expresó su preocupación por la prevalencia de dispositivos inteligentes equipados con micrófono en los hogares.
Los investigadores aclaran que su estudio es una prueba conceptual y no se ha empleado para descifrar contraseñas en situaciones reales, como en cafeterías.
No obstante, destacan que resalta la urgencia de educar a las personas sobre estos riesgos y discutir la regulación de la IA, ya que este tipo de ataques acústicos podrían afectar cualquier teclado.
¿Qué hacer para mitigar la posibilidad de un ciberataque?
Para reducir estos riesgos, los investigadores proponen alternativas como el uso de contraseñas biométricas o sistemas de autenticación en dos pasos.
También sugieren utilizar la tecla Mayúsculas para crear una mezcla de mayúsculas y minúsculas, o de números y símbolos. Esto se debe a que, al parecer, la IA sigue siendo muy mala a la hora de saber cuándo se pulsa la tecla mayúscula.
Además, el profesor Feng Hao de la Universidad de Warwick, quien no participó en este estudio, advierte sobre otra posible amenaza. Según reveló a The Guardian, la gente debe tener cuidado también de no escribir frente a las cámaras mensajes sensibles, incluidas contraseñas, en un teclado durante una llamada de Zoom.
“Además del sonido, las imágenes visuales sobre los sutiles movimientos del hombro y la muñeca también pueden revelar información de canal lateral sobre las teclas que se están escribiendo en el teclado, aunque éste no sea visible desde la cámara”, afirma.