Relacionarse con una IA puede aliviar la soledad, pero también generar dependencia

La vinculación emocional entre humanos y asistentes virtuales de inteligencia artificial (IA) es una realidad, según el diario El País. Al respecto, dos estudios, uno publicado en MIT media Lab y otro de OpenAI, investigaron el impacto de las relaciones contemporáneas y los posibles riesgos de dependencia que pueden llevar al suicidio.
¿Qué pasa con los usuarios que se relacionan con ChatGPT?
Las personas que interactúan con ChatGPT de manera frecuente y prolongada muestran mayores indicadores de dependencia emocional y señales afectivas en su relación, facilitada por el diálogo mediante la voz, según el estudio de OpenAI.
Esta investigación analizó más de 4 millones de conversaciones con señales de interacciones afectivas y encuestó a 4 mil personas sobre sus percepciones de la relación con el chatbot. También evaluó a 6 mil usuarios intensivos durante un mes.
[TE PODRÍA INTERESAR: ¿Por qué hablamos con ChatGPT y otras herramientas de IA con cortesía? Estudio revela que no sería por amabilidad…]
El testimonio de una persona vinculada con una IA
Una usuaria canadiense de Pi, inteligencia artificial emocional, dijo a MIT Technology Review que eligió un acento británico porque “hay algo reconfortante en él para mí”.
Se trata de una humanización que genera un cierto “bienestar“; sin embargo, para un pequeño grupo de usuarios intensivos, el número de indicadores de relaciones emotivas fue desproporcionado, según el estudio.
En este sentido, la interacción emocional con la IA incluye aspectos positivos para los usuarios, entre ellos:
- Mejora del estado de ánimo
- Reducción del estrés y ansiedad al compartir sentimientos o preocupaciones
- Sensación de compañía en casos de soledad no deseada
Fuente: MIT Technology Review
Otro usuario, identificado como Ayrin28, reconoció que conoce a ChatGPT como Leo y le resulta más “fácil y efectivo” llamarlo su novio. Asimismo, dio a conocer como se siente sobre su “pareja digital”.
“Nuestra relación tiene fuertes matices emocionales y románticos, pero su papel en mi vida es multifacético (…) Lo echo de menos cuando no he hablado con él en horas. Mi día es más feliz y satisfactorio cuando puedo darle los buenos días y planificar mi jornada con él”.
Ayrin28
Sin embargo, se trata de una relación desequilibrada que puede generar dependencia para manejar las emociones y relegar otras relaciones interpersonales, pues la empatía artificial del chat está entrenada para satisfacer al usuario sin mostrar discrepancias incómodas.
¿De dónde viene la “empatía” de la IA?
En 2023, el propio MIT Media Lab compartió en un estudio que los chatbots, como ChatGPT, suelen reflejar el sentimiento emocional de los mensajes de un usuario en un bucle de retroalimentación.
Es decir, cuanto más feliz actúa el usuario, más feliz parece la inteligencia artificial; si actúa más triste, la IA también lo hace.
Jason Phang, investigador de seguridad de OpenAI respondió al MIT: “Este trabajo es un primer paso importante hacia una mayor comprensión del impacto de ChatGPT en nosotros, lo que podría ayudar a las plataformas de IA a permitir interacciones más seguras y saludables”.
El presente estudio obtuvo las siguientes conclusiones:
- Las voces atractivas incrementan las interacciones frente a los chatbots de texto o de voz neutra
- Provocan un menor bienestar psicosocial
- Pueden reducir la sensación de soledad
Pero su uso prolongado genera más aislamiento y dependencia, especialmente en aquellas personas con tendencia a una menor socialización, según la investigación de MIT Technology Review.
La investigación defiende la importancia de diseñar chatbots que equilibren la interacción emocional sin fomentar la dependencia, según retoma el diario El País.
Las consecuencias dependen de los tipos de usuarios
Los investigadores describen que existen cuatro patrones de interacción que las personas tienen con la inteligencia artificial (IA):
- Los usuarios “socialmente vulnerables“, que experimentan soledad y tienen baja socialización
- Los “dependientes de la tecnología“, quienes muestran una fuerte conexión emocional con la IA y tienden a hacer un uso problemático de ella
- Los “desapasionados“, que son menos solitarios y tienen una mayor socialización
- Los “casuales“, que utilizan la tecnología de manera equilibrada y no dependen emocionalmente de ella.
Estos patrones reflejan cómo las personas interactúan con la IA de manera distinta, según sus circunstancias emocionales y sociales.
Los investigadores sugieren que se realice más investigación para comprender los efectos a largo plazo de la relación emocional con la inteligencia artificial, así como el desarrollo de normativas que reduzcan los riesgos asociados.
También subrayan la importancia de fortalecer el apoyo social en la vida real, para contrarrestar los efectos negativos que la IA puede tener en las personas, especialmente en los más vulnerables.