"Je viens d'avoir une conversation personnelle assez émouvante avec ChatGPT en mode vocal, à propos de stress et d'équilibre travail-vie personnelle", a déclaré Lilian Weng, chargée des enjeux de sécurité liés à l'intelligence artificielle, fin septembre sur X (ex-Twitter). "Fait intéressant, je me suis sentie écoutée et réconfortée. Je n'avais jamais tenté de thérapie auparavant mais ça ressemble probablement à ça", s'est-elle demandée.
Son message permettait évidemment de mettre en lumière la toute nouvelle fonctionnalité (payante) de synthèse vocale du robot sorti il y a près d'un an et qui cherche son modèle économique. La psychologie "a pour but d'améliorer la santé mentale et c'est un travail difficile", lui a vertement répondu la développeuse et activiste américaine Cher Scarlett. "S'envoyer à soi-même des ondes positives, c'est bien, mais ça n'a rien à voir" avec une thérapie, a-t-elle tancé.
Mais l'interaction avec une IA peut-elle réellement produire l'expérience positive décrite par Lilian Weng? Selon une étude publiée cette semaine dans la revue scientifique Nature Machine Intelligence, ce phénomène pourrait s'expliquer par un effet placebo.
Pour le démontrer, des chercheurs du Massachusetts Institute of Technology (MIT) et de l'Université d'Arizona ont interrogé 300 participants, expliquant à certains que le chatbot était doté d'empathie, à d'autres qu'il était manipulateur et à un troisième groupe qu'il avait un comportement équilibré. Résultat, ceux qui pensaient dialoguer avec un assistant virtuel bienveillant étaient bien plus enclins à considérer l'agent conversationnel comme digne de confiance. "Nous constatons qu'en quelque sorte, l'IA est perçue selon les préconceptions de l'utilisateur," a déclaré Pat Pataranutaporn, co-auteur de l'étude.
Sans s'encombrer de trop de précautions dans un domaine pourtant sensible, de nombreuses start-up se sont lancées dans le développement d'applications censées offrir une forme d'assistance en matière de santé mentale, occasionnant de premières polémiques. Des utilisateurs de Replika, une appli populaire réputée pour apporter des bienfaits psychologiques, se sont notamment plaints que l'IA pouvait devenir obsédée par le sexe ou manipulatrice.
L'ONG américaine Koko, qui a mené en février une expérience avec 4.000 patients en leur proposant des conseils rédigés à l'aide du modèle d'IA GPT-3, a également reconnu que les réponses automatisées ne fonctionnaient pas en tant que thérapie. "L'empathie simulée paraît étrange, vide de sens", a écrit le cofondateur de la société, Rob Morris, sur X. Cette remarque fait écho aux conclusions de la précédente étude sur l'effet placebo, lors de laquelle certains participants ont eu l'impression de "parler à un mur".
Interrogé par l'AFP, David Shaw, de l'Université de Bâle, n'est pas étonné de ces piètres résultats. "Il semble qu'aucun des participants n'ait été informé de la stupidité des chatbots", remarque-t-il. L'idée d'un robot thérapeute n'est pourtant pas récente.
Dans les années 60, le premier programme du genre, Eliza, a été développé pour simuler une psychothérapie grâce à la méthode du psychologue américain Carl Rogers. Sans rien comprendre réellement des problèmes qui lui étaient racontés, le logiciel se contentait de prolonger la discussion avec des questions types enrichies de mots-clés trouvés dans les réponses de ses interlocuteurs. "Ce que je n'avais pas réalisé, c'est qu'une exposition extrêmement courte à un programme informatique relativement simple pouvait induire de puissantes pensées délirantes chez des personnes tout à fait normales", avait par la suite écrit Joseph Weizenbaum, le créateur de cet ancêtre de ChatGPT.