Inteligencia artificial: Bard, Character.AI y otras IA que han generado polémica
Bard, la ya casi extinta inteligencia artificial de Google, así como su nuevo modelo de lenguaje Gemini, son algunas de las IA que han generado polémica en los últimos cinco años tras quedar evidenciadas por una serie de inconsistencias, pero no son la únicas que han enfrentado el escrutinio público o en su defecto demandas legales.
Y es que según Amnistía Internacional, 2023 marcó una nueva era de “revuelo en torno a la inteligencia artificial” que empezó con el lanzamiento de ChatGPT a finales de 2022.
“Aunque los desarrollos de la IA brindan ciertamente nuevas oportunidades y beneficios, no debemos ignorar los peligros documentados que estas herramientas suponen cuando se utilizan como medio de control social, vigilancia masiva y discriminación”.
Amnistia Internacional
Por ello, te presentamos algunos casos mediáticos de “errores” o demandas que han enfrentado diferentes compañías que usan IA en los últimos años.
La polémica que ha enfrentado la inteligencia artificial de Google
Durante la salida de Bard al mercado, a principios de 2023, Google decidió poner un ejemplo de los alcances de su IA en X (antes Twitter). En el comercial, se le preguntó al chatbot qué se le podía decir a un niño de 9 años sobre los descubrimientos del telescopio espacial James Webb.
Bard respondió que el telescopio fue el primero en tomar imágenes de un planeta fuera de nuestro sistema solar. Sin embargo, este hallazgo fue reclamado por el Telescopio Muy Grande (VLT) del Observatorio Europeo Austral en 2004, un error que notaron los internautas.
“¿Por qué no verificaste este ejemplo antes de compartirlo?”, escribió en X Chris Harrison, investigador de la Universidad de Newcastle.
Casi un año después, en diciembre de 2023, el gigante tecnológico dejó atrás a Google Bard y centró sus esfuerzos en Gemini, su actual modelo de lenguaje de inteligencia artificial. Pero esta nueva apuesta también presentó problemas y el buscador tuvo que emitir una disculpa pública por los errores que presentaba en su generación de imágenes.
De acuerdo con The Verge, en febrero de 2024, un usuario pidió a la IA generar una imagen histórica de soldados alemanes en la época del Nazismo, pero Gemini arrojó un resultado completamente distinto, que incluía a mujeres y personas de color en el resultado.
“Somos conscientes de que Gemini ofrece imprecisiones en algunas representaciones de generación de imágenes históricas”, expresó Google en su momento.
Character.AI enfrenta demanda por el suicidio de un adolescente
Otra empresa de IA que enfrentado el escrutinio público es la startup de chatbot Character.AI, que recientemente enfrenta una demanda por el suicidio de Sewell Setzer, un adolescente de 14 años que murió el pasado febrero.
Megan García, madre del menor, dijo que su hijo se volvió adicto al servicio de la compañía y se apegó profundamente a un chatbot que creó.
En la demanda presentada en el tribunal federal de Orlando, Florida, Megan explicó que Character.AI introdujo a su hijo a “experiencias antropomórficas, hipersexualizadas y aterradoramente realistas”.
También destacó que la compañía programó su chatbot para “hacerse pasar por una persona real, un psicoterapeuta autorizado y un amante adulto, lo que finalmente resultó en el deseo de Sewell de ya no vivir fuera” del mundo creado por el servicio.
La demanda también destacó que Sewell Setzer expresó pensamientos de suicidio al chatbot, los cuales el chatbot volvió a mencionar repetidamente.
La respuesta de Character. AI
“Estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia”, dijo Character.AI en un comunicado este octubre.
También expresó que introdujo nuevas características de seguridad, incluyendo ventanas emergentes que dirigen a los usuarios a la Línea Nacional de Prevención del Suicidio si expresan pensamientos de autolesión.
Y agregó que haría cambios para “reducir la probabilidad de encontrar contenido sensible o sugerente” para usuarios menores de 18 años, reportó la agencia Reuters, quien tuvo acceso a la querella.
La relación de Character. AI con Google
La demanda también apunta a Alphabet de Google, ya que los fundadores de esta startup trabajaron ahí.
Además, Google volvió a contratar a los fundadores en agosto como parte de un acuerdo que le otorga una licencia no exclusiva para la tecnología de Character.AI.
García dijo que Google había contribuido al desarrollo de la tecnología de Character.AI de manera tan extensa que podría considerarse un “cocreador”.
Un portavoz de Google dijo que la compañía no participó en el desarrollo de los productos de Character.AI.
¿ Qué es Character.AI?
Character.AI es una startup de chatbots fundada en 2021, con sede en California. La plataforma ofrece una IA personalizada y proporciona una selección de personajes prefabricados o creados por el usuario con los que puede interactuar.
Character.AI permite a los usuarios crear personajes en su plataforma que responden a los chats en línea de una manera que imita a la de las personas reales.
Se basa en la llamada tecnología de modelos de lenguaje grandes, también utilizada por servicios como ChatGPT, que “entrena” a los chatbots con grandes volúmenes de texto.
Otras polémicas alrededor de la inteligencia artificial
En el mes de junio, Sony Music, Universal Music Group y Warner Records demandaron a dos nuevas empresas de inteligencia artificial por supuesta violación de derechos de autor.
Las principales discográficas demandaron a las empresas de IA, Suno y Udio, por supuesta infracción de derechos de autor.
En este caso se alegó que las empresas están explotando a una escala “casi inimaginable” las obras grabadas de los artistas.
Y años antes, en 2018, Amazon quiso implementar una IA diseñada para reclutar personal. Sin embargo, la compañía de comercio electrónico tuvo que dar marcha atrás cuando su sistema algorítmico resultó ser sexista, de acuerdo con una investigación elaborada por Reuters.
Amnistía Internacional, así como gobiernos del mundo, incluido México, han abierto el debate sobre la necesidad de regular esta tecnología.
El organismo destacó, en una carta en enero de 2023, que esta regulación debe incluir mecanismos más amplios de rendición de cuentas que vayan más allá de las evaluaciones técnicas respaldadas por el sector.
“Es el momento de garantizar no sólo que los sistemas de IA respetan por diseño los derechos, sino también que las personas afectadas por estas tecnologías no sólo participan de forma significativa en la toma de decisiones sobre cómo debe regularse la IA, sino que además sus experiencias se sacan continuamente a la luz y centran estos debates”, dijo.