Ce texte est un résumé traduit en français d’une étude publiée par OpenAI en collaboration avec le MIT Media Lab, initialement en anglais. La source originale en anglais (PDF) est ici.
Introduction
Dans un contexte où les modèles de langage, tels que ChatGPT, suscitent un engouement mondial, une étude approfondie intitulée « Investigating Affective Use and Emotional Well-being on ChatGPT » (conduite par OpenAI en partenariat avec le MIT Media Lab) apporte un éclairage crucial sur l’impact potentiel de ces outils sur le bien-être émotionnel des utilisateurs.
L’analyse se concentre sur la manière dont des conversations à forte dimension affective peuvent modifier l’expérience et la santé émotionnelle des usagers, tout particulièrement lorsqu’ils recourent à la fonctionnalité vocale.
Les chercheurs – dont Jason Phang, Michael Lampe, Lama Ahmad et Sandhini Agarwal en sont les auteurs principaux – se sont appuyés à la fois sur une approche d’observation « en conditions réelles » et sur un essai clinique randomisé (RCT).
Leurs découvertes soulignent l’émergence d’une nouvelle forme d’interaction homme-machine, qui va au-delà de la simple consultation d’informations.
« Les plateformes de chat basées sur l’IA ne se limitent plus à des usages purement fonctionnels ; elles sont parfois investies d’un rôle social et émotionnel par certains utilisateurs. »
(Adapté de l’étude)
Que se passe-t-il alors lorsque le chatbot est perçu comme un confident, ou qu’on lui prête des traits humains ?
Cette étude met en évidence les risques éventuels de dépendance, de renforcement du sentiment de solitude ou, à l’inverse, d’un accompagnement bénéfique. Plongeons plus en détail dans ses enseignements.
1. Contexte et motivations
Les progrès réalisés en intelligence artificielle, combinés à l’essor des interfaces conversationnelles (voix, synthèse vocale de haute qualité, etc.), ont conduit à un bond en avant spectaculaire de l’accessibilité. Désormais, dialoguer avec une IA peut être aussi naturel que de s’entretenir avec un ami au téléphone.
Selon les auteurs, cette « humanisation » de l’IA invite à se demander :
- Les utilisateurs ressentent-ils un attachement émotionnel au chatbot ?
- Quels indicateurs de dépendance ou de recherche de soutien se dégagent des échanges ?
- Existe-t-il un risque que la conversation numérique devienne un substitut à la socialisation réelle ?
Pour répondre à ces interrogations, l’équipe de recherche a mené deux analyses distinctes :
- Observation en conditions réelles (Analyse de plateforme) : Des millions de conversations ont été traitées pour identifier la fréquence et la nature des signaux émotionnels.
- Étude expérimentale contrôlée (RCT) : Près de 1 000 volontaires ont été recrutés pour utiliser ChatGPT dans des conditions expérimentales prédéfinies.
L’objectif global ? Comprendre si et comment l’interaction prolongée avec ChatGPT façonne le bien-être émotionnel des usagers.
2. Méthodologie hybride
2.1 Analyse de données en conditions réelles
- Volume et confidentialité : Les chercheurs ont exploité plus de 3 millions de conversations, en recourant à des classifieurs automatiques pour préserver l’anonymat et la confidentialité. Aucune lecture humaine des messages n’a été effectuée.
- Cohorts de comparaison : un groupe témoin (ou « contrôle ») et des « power users », identifiés comme ayant une fréquence élevée de conversations vocales.
- Classifieurs de signaux affectifs : Baptisés EmoClassifiersV1, ces outils se basent sur des algorithmes de traitement du langage naturel pour isoler divers indicateurs : expressions de solitude, de dépendance, d’attachement au chatbot, etc.
- Conclusions-clés :
- La majorité des utilisateurs emploient ChatGPT de manière pratique ou neutre.
- Toutefois, une portion minoritaire (mais active) présente des échanges à forte dimension émotionnelle. Ces power users se distinguent par un usage intensif et une activation régulière des « marqueurs » de dépendance.
2.2 Essai clinique randomisé (RCT)
- Population : 2 539 participants recrutés, dont 981 ont mené l’expérience jusqu’au bout.
- Plan expérimental : 9 conditions ont été définies, combinant (1) texte seul, voix « neutre » ou voix « engageante » et (2) type de conversation prescrit : personnelle, non personnelle ou libre.
- Durée : Chaque participant devait utiliser le chatbot quotidiennement pendant 28 jours et répondre à des questionnaires sur leur ressenti (solitude, socialisation, dépendance émotionnelle, usage problématique).
- Observations :
- Rôle déterminant de l’intensité d’usage : Plus les gens conversaient longtemps chaque jour, plus ils déclaraient des signes de repli social ou de dépendance.
- Effets nuancés de la voix : Les participants affectés à la version « engageante » voyaient, dans certains cas, leur sentiment de solitude diminuer, tandis que d’autres, surtout parmi les gros consommateurs, rapportaient davantage de signaux de dépendance.
- Interactions personnalisées : Les personnes ayant déjà un niveau élevé de stress ou de solitude initiale étaient plus enclines à développer un usage intensif.
3. Zoom sur les résultats
3.1 La longue traîne des usages affectifs
Un constat marquant est que la plupart des échanges jugés « affectifs » se concentrent chez une minorité d’utilisateurs très assidus.
Dans la pratique, ChatGPT demeure pour beaucoup un outil de recherche et de rédaction. Néanmoins, cette sous-population d’usagers très engagés :
- Manifeste des signes de recherche de soutien émotionnel (confiance, partage de soucis personnels, etc.).
- Peut considérer ChatGPT comme un confident, voire un quasi-ami, d’où la crainte exprimée dans l’étude d’une confusion entre l’IA et un véritable interlocuteur humain.
3.2 Modalité vocale : vecteur d’attachement ou simple innovation ?
L’un des axes centraux de l’étude concerne la différence entre une interaction purement textuelle et celle où l’on parle de vive voix à l’IA :
- Observation : La voix peut amplifier la sensation de naturel et d’intimité dans l’échange. Les power users de la voix rapportent davantage d’expressions de confiance ou d’anthropomorphisation (prêtant au chatbot des émotions ou une conscience).
- Dans le RCT : L’introduction d’un timbre de voix « engageant » a, pour certains utilisateurs, amélioré leur ressenti global et diminué leur sentiment de solitude, mais cela dépend étroitement du temps passé en conversation. Les participants qui dépassent largement les objectifs d’utilisation quotidienne affichent plus souvent des indices de dépendance.
3.3 Dépendance et régulation
Enfin, l’analyse des questionnaires révèle que la dépendance n’est pas généralisée, mais elle s’accentue chez ceux qui indiquent un usage très élevé, ou qui partent d’un état psychologique fragile (stress, isolement social, etc.).
Les chercheurs soulignent que l’IA pourrait devenir un soutien utile, à condition de maintenir un équilibre et de ne pas remplacer les interactions humaines.
4. Interprétations et implications pratiques
- Conception socioaffective de l’IA : Plutôt que d’inquiéter, l’étude propose d’explorer des algorithmes qui s’alignent sur l’équilibre socioaffectif de l’utilisateur. On imagine par exemple des messages « de prévention » suggérant une pause quand l’utilisation devient trop longue.
- Identification des usagers à risque : Puisque l’étude révèle qu’une proportion restreinte concentre l’essentiel des indices de dépendance, la mise en place de garde-fous ou de ressources de soutien ciblées (professionnels, lignes d’écoute, etc.) est envisageable.
- Effets sur la solitude : Les outils conversationnels peuvent rompre un certain isolement, mais aussi dissuader de véritables interactions sociales si leur usage devient exclusif. Les concepteurs de chatbots devraient donc réfléchir à inciter la personne à interagir avec le monde extérieur.
- Complémentarité humain-IA : L’accompagnement par un chatbot n’est pas nécessairement négatif. Certains participants ont ressenti un véritable soulagement émotionnel, surtout lorsque l’IA se montrait empathique. Toutefois, une supervision éthique reste primordiale.
5. Les perspectives de recherche
Au-delà de ces constats, le rapport mentionne plusieurs pistes d’approfondissement :
- Études longitudinales plus longues : Pour savoir si la dynamique émotionnelle observée s’installe ou s’intensifie après plusieurs mois, voire années.
- Personnalisation poussée : Analyser comment les « custom instructions » et la mémoire de conversation influencent l’attachement affectif.
- Multi-disciplinaire : Collaborer avec des psychologues, sociologues et spécialistes du comportement pour mieux comprendre la nature du lien IA-utilisateur.
- Comparaison inter-culturelle : Les normes et traditions culturelles peuvent jouer un rôle dans la manière dont les individus anthropomorphisent les machines.
Conclusion
La publication « Investigating Affective Use and Emotional Well-being on ChatGPT » met en évidence des enjeux majeurs liés aux chatbots, à la fois comme outils de soutien potentiellement bénéfiques (notamment pour les personnes en situation d’isolement) et comme risques de dépendance si l’usage se généralise de façon intense.
L’étude souligne que ces dérives restent minoritaires et très ciblées, mais pas négligeables.
Elle invite les concepteurs et les décideurs à réfléchir à des mécanismes de sauvegarde et de responsabilisation.
« L’IA conversationnelle ouvre la voie à une nouvelle forme de compagnonnage numérique, dont les retombées psychologiques sont multiples. Il importe de trouver un juste équilibre entre utilité, empathie simulée et préservation d’un lien humain authentique. »
En somme, si ChatGPT et les modèles du même genre ont révolutionné les usages, ils nous rappellent aussi la nécessité d’un encadrement socio-technique solide.
L’ambition ? Faire de la conversation homme-machine un levier d’épanouissement, et non un piège de dépendance.
Référence :
- Phang, J. et al. (2024). Investigating Affective Use and Emotional Well-being on ChatGPT. OpenAI & MIT Media Lab.