El gigante estadounidense Meta, casa matriz de Facebook, Instagram y Threads, anunció este viernes que identificará cualquier contenido de imagen o audio generado por inteligencia artificial (IA) para reforzar la lucha contra la desinformación.
“Prevemos empezar a etiquetar en mayo de 2024 contenido generado por IA”, indicó en su blog Monika Bickert, vicepresidenta de contenido de Meta. La funcionaria indicó que se añadirá la mención “Made with AI” , que ya se usa en imágenes fotorrealistas, a “un mayor número de contenidos de video, audio y de imágenes”.
[TE PODRÍA INTERESAR: Meta lanza campaña en contra de la violencia política en razón de género]
Además de las etiquetas visibles, estos contenidos serán marcados por la plataforma con una “marca de agua”, una especie de “tatuaje” digital invisible.
Estos contenidos serán marcados por la plataforma si detecta “indicadores de imagen de IA conforme a las normas de la industria”. También si “las personas indican que están subiendo contenidos generados por IA“, indicó Meta.
“Un filtro es mejor que nada, aunque forzosamente habrá brechas”, explicó a la agencia de noticias AFP Nicolas Gaudemet, director de IA del gabinete de análisis francés Onepoint.
Con esta iniciativa, Meta se suma a Google, Microsoft y OpenAI que ya utilizan ese tipo de tecnología.
¿Por qué Meta identificará contenidos creados con inteligencia artificial?
Meta modificará su forma de tratar los contenidos creados con inteligencia artificial, después de consultar a su junta de supervisión. Y es que, la compañía considera que “la transparencia y un mayor contexto son la mejor manera de tratar los contenidos manipulados”.
Con ello se evita, según la compañía propiedad de Mark Zuckerberg, “el riesgo de restringir innecesariamente la libertad de expresión”. Ya que, en lugar de eliminarlos, como había estado haciendo hasta ahora, ahora agregará “etiquetas y contexto” a estos contenidos.
Sin embargo, advirtió Meta, cualquier contenido, ya sea creado por un humano o una IA, que viole sus reglas “contra la interferencia en procesos electorales, la intimidación, el acoso, la violencia (…) o cualquier otra política en nuestras normas comunitarias” será retirado.
¿Cómo identificará los contenidos generados por IA?
Meta reafirmó que confía en su red de “aproximadamente 100 verificadores de datos independientes” para detectar contenidos generados por IA “falsos o engañosos”.
“Dar un contexto” a las imágenes que se difunden en las redes sociales “es absolutamente necesario”, explicó Gaudemet, quien se muestra cauto antes de saber cómo será la política de Meta al respecto.
La IA y la desinformación en tiempos electorales
El temor es que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación o la información errónea.
Hay varias elecciones importantes este año, especialmente en Estados Unidos, donde los falsos videos ya están circulando. Dichos videos son usados para atacar al presidente Joe Biden como al candidato y ex presidente Donald Trump.
En Pakistán, el partido del ex primer ministro Imran Khan utilizó la IA para generar discursos de su líder, encarcelado.
[TE PODRÍA INTERESAR: ¡Alerta! Usan “deepfake” de Lionel Messi para promover una app fraudulenta]
Más allá de lo electoral, el desarrollo de programas de inteligencia artificial generativa también ha conllevado la producción de contenido degradante, según expertos y reguladores. Algunos ejemplos de este tipo de contenidos son: las falsas imágenes (“deepfakes“) pornográficas de mujeres.
La empresa matriz de Facebook había anunciado en febrero su deseo de etiquetar todas las imágenes generadas por IA para luchar contra la desinformación.