Una imagen falsa de una explosión en el Pentágono en Estados Unidos se volvió viral brevemente en internet y provocó una caída de 10 minutos en los mercados de Estados Unidos el lunes, lo que generó más inquietud sobre los riesgos de la Inteligencia Artificial (IA) generativa.
[TE PODRÍA INTERESAR: Ecologistas tiñen de negro la Fontana di Trevi; advierten por inundaciones]
¿Qué hay detrás de la foto viral de supuesta explosión en el Pentágono?
La imagen, que muchos observadores sospechan que fue generada por IA, fue difundida por varias cuentas en redes sociales, lo que obligó al Departamento de Defensa a señalar públicamente que no existió tal explosión.
“Podemos confirmar que este fue un informe falso y que el Pentágono no fue atacado hoy“, dijo un portavoz de la Secretaría del Departamento de Defensa.
El Departamento de Bomberos de Arlington, en el estado de Virginia, también reaccionó y publicó en las redes sociales un mensaje asegurando que no hubo ninguna explosión o incidente en el Pentágono o cerca de él.
Wall Street cae tras “fake new” sobre explosión en Pentágono
La imagen del Pentágono compartida en las redes impactó en los mercados por algunos minutos. El índice ampliado S&P 500 -de las mayores 500 empresas y una referencia principal entre inversores- llegó a caer 0.29% en comparación con su cierre del viernes antes de volver a recuperarse.
En ese sentido, medios internacionales agregaron que el Promedio Industrial Dow Jones cayó unos 80 puntos entre las 10:06 y las 10:10 horas de la mañana (tiempo local), recuperándose totalmente a las 10:13.
Sin determinar fuente original de la imagen
Este incidente siguió a otras ocurrencias de imágenes falsas que también crearon revuelo recientemente en Internet, incluido el arresto del expresidente de Estados Unidos, Donald Trump, y del Papa Francisco luciendo una chaqueta inflada de abrigo.
La primera publicación en Twitter que AFP encontró compartiendo tal imagen del Pentágono provino de una cuenta de promoción del movimiento QAnon (abreviación de Q-Anónimo), defensor de teorías de la conspiración impulsadas por la extrema derecha y que previamente había compartido informaciones falsas. No obstante no se determinó la fuente original de la imagen.
Las tecnologías emergentes de la IA generativa facilitan entre otras cosas que gente no especialista pueda crear imágenes convincentes en apenas unos momentos, en lugar de necesitar formación y experiencia para usar programas como Photoshop.
Nick Waters, líder de justicia y rendición de cuentas del grupo de investigaciones en línea Bellingcat, describió la imagen como “claramente AI” generada en Twitter y señaló anomalías visuales como la fachada del edificio y la apariencia de la valla.