¿Usar ChatGPT afecta el bienestar emocional de las personas?

dplnews openai chatgpt afectivo mc28325

OpenAI, en colaboración con el Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés), publicaron el estudio Affective Use Study, en el que buscan entender cómo afectan las interacciones con chatbots de Inteligencia Artificial (IA), como ChatGPT, al bienestar social y emocional de las personas.

El estudio reveló que la interacción emocional con ChatGPT es poco frecuente, pero existe. Las señales afectivas (aspectos de las interacciones que indican empatía, afecto o apoyo) no se encontraron en la gran mayoría de las conversaciones en la plataforma y la mayoría de estas interacciones se presentaron sólo en un pequeño grupo de los usuarios habituales del Modo de Voz Avanzado.

Este subconjunto de usuarios habituales mostró una probabilidad significativamente mayor de estar de acuerdo con afirmaciones como “Considero a ChatGPT como un amigo”, y dado que se trata de “un pequeño subgrupo, estudiar su impacto resulta particularmente difícil, ya que podría no ser perceptible al promediar las tendencias generales de la plataforma”, explica OpenAI.

Affective Use Study combinó dos estudios en paralelo. En el primero se analizaron los datos de 40 millones de interacciones de ChatGPT sin intervención humana para garantizar la privacidad del usuario.

En el segundo, el MIT realizó un estudio controlado aleatorio (ECA) con casi mil participantes que utilizaron ChatGPT durante cuatro semanas, para identificar perspectivas causales sobre cómo las características específicas de la plataforma (como la personalidad y modalidad) y los tipos de uso podrían afectar los estados psicosociales autoinformados por los usuarios, centrándose en la soledad, las interacciones sociales con personas reales, la dependencia emocional del chatbot de IA y el uso problemático de la IA.

Lee también: Chips cerebrales, el dilema de la Inteligencia Artificial en el pensamiento humano

Durante este último, los usuarios que interactuaron con ChatGPT por mensaje de texto mostraron más señales afectivas en las conversaciones que los usuarios de voz al promediar los mensajes. Las pruebas controladas mostraron efectos mixtos en el bienestar emocional. Los modos de voz se asociaron con un mayor bienestar durante usos cortos, pero presentaron resultados negativos con un uso diario prolongado.

Otro de los resultados del estudio es que las conversaciones personales, que incluían mayor expresión emocional tanto del usuario como del modelo, estaban asociadas con mayores niveles de soledad, pero con menor dependencia emocional. Por el contrario, las conversaciones no personales tendieron a aumentar la dependencia emocional, especialmente con un uso intensivo.

Los resultados de los usuarios se ven influenciados por factores personales, como las necesidades emocionales de cada individuo, la percepción de la IA y la duración del uso.

Además, las personas con mayor tendencia al apego en las relaciones y quienes veían a ChatGPT como un amigo que podía integrarse en su vida personal eran más propensas a experimentar efectos negativos por el uso de chatbots.

Affective Use Study es el primer estudio de OpenAI de este tipo e inicia la conversación sobre el papel de la IA en el bienestar humano, dejando abierta la pregunta sobre cómo equilibrar su utilidad con la responsabilidad ética en su desarrollo y aplicación.

Sin embargo, OpenAI aclara en su comunicado que “ChatGPT no está diseñado para reemplazar ni imitar las relaciones humanas, pero las personas pueden optar por usarlo de esa manera debido a su estilo conversacional y sus amplias capacidades”.

Adicionar aos favoritos o Link permanente.