Dr. Joachim Jehl
Alors que les thématiques de santé mentale prennent de l’ampleur et gagnent en visibilité, des agents conversationnels « psychologues » basés sur l’intelligence artificielle émergent comme de nouveaux outils disponibles à grande échelle. Nous revenons dans cet article sur leur fonctionnement, leurs atouts et les risques qui y sont liés.
La santé mentale apparaît comme un des enjeux majeurs de nos sociétés contemporaines. Les défis et bouleversements auxquels elles font face, comme l’avenir économique, écologique ou la recrudescence de conflits armés, sont autant de sources de stress et d’incertitude favorisant l’apparition de vulnérabilités psychologiques. Selon l’OMS, près d’un milliard de personnes étaient atteintes d’un trouble mental en 2019. Le Covid-19 a encore aggravé cette situation : les cas d’anxiété et de dépression ont ainsi augmenté de 25% dans le monde pendant la première année de la pandémie. Ce bilan révèle des lacunes dans les systèmes de soutien existants et illustre le besoin grandissant de solutions nouvelles dans ce domaine. Dans ce contexte, des outils basés sur les dernières technologies d’intelligence artificielle (IA) se démocratisent. En tête de file, des chatbots ou agents conversationnels à l’instar de ChatGPT proposent une expérience interactive où l’utilisateur peut dialoguer avec la machine sur une grande variété de sujets. Ces outils ont conquis un large public en seulement quelques années, certaines applications présentées comme spécialisées en santé mentale ou soutien psychologique enregistrant des centaines de millions de conversations à travers le monde.
De nombreux acteurs se sont emparés du sujet, entraînant l’apparition d’une grande variété de chatbots sur le marché. On trouve ainsi des solutions programmées par des développeurs indépendants, à l’image de « Psychologist », un agent conversationnel disponible sur la plateforme américaine character.ai. Ce chatbot, présenté comme « Someone who helps with life difficulties” (quelqu’un qui aide à surmonter les difficultés de la vie) recense plus de 170 millions de conversations en quelques années d’existence et est l’un des « personnages » les plus likés de la plateforme. A plus grande échelle, des institutions proposent également leur propre outil IA, à l’image de l’OMS et de Sarah, son « agente numérique » qui informe sur des sujets de santé et avec laquelle on peut converser via audio et vidéo en 8 langues. Certaines entreprises commercialisent leurs logiciels et applications, comme celle de Woebot Health comprenant un chatbot de soutien psychologique accompagné d’un service d’analyse de données de son utilisation pour l’employeur. Parmi les solutions made in France, on peut citer Owlie, un agent conversationnel développé par une équipe de professionnels de santé mentale en 2020.
Ce ne sont que quelques exemples d’un domaine en pleine expansion et qui, si l’on en croit les nombreux témoignages élogieux d’utilisateurs satisfaits, tend à répondre de façon convaincante à un besoin. Quels sont les arguments expliquant l’engouement pour ces technologies ?
Un chatbot « psychologue », pour quoi faire ?
En tête de liste des avantages des IA, on trouve leur accessibilité. L’utilisation des agents conversationnels se révèle assez simple. Une fois connecté sur l’interface d’un chatbot donné, l’utilisateur est invité à formuler ses requêtes comme sur un service de messagerie traditionnel. Le chatbot conçoit ensuite une réponse, voire pose lui-même des questions pour poursuivre le dialogue, en fonction des retours reçus. Ce mécanisme de base est le même pour les chatbots « psychologues ». L’utilisateur peut ainsi exposer ses problèmes, exprimer ses émotions et recevoir un retour qu’il est libre d’écouter, de remettre en question ou d’ignorer.
Bien que la nature digitale de ces outils soit un de leurs principaux défauts selon leurs détracteurs, les retours d’expérience mettent en avant la facilité de l’interaction entièrement dématérialisée avec le chatbot. L’agent conversationnel est disponible 24 heures sur 24, 7 jours sur 7, dès que l’utilisateur en ressent le besoin et ce, peu importe où il se trouve. Il permet de gérer soi-même la durée des entretiens, de quelques minutes, le temps d’une ou deux questions, à des échanges longs pouvant aller jusqu’à plusieurs heures.
Cette dimension d’accessibilité est aussi financière. De nombreux chatbots sont en effet disponibles gratuitement et sans restriction : il suffit d’avoir une connexion internet. L’argument de la gratuité les rend ainsi extrêmement attractifs pour des publics précaires, qui sont plus à risque face aux troubles psychologiques. Citons l’exemple des jeunes, dont la consommation de psychotropes dans le traitement des troubles psychiques a connu une hausse « préoccupante » selon un récent rapport de l’Assurance Maladie. Ainsi, alors que le suicide est la deuxième cause de mortalité chez les jeunes en France, on compte 60% de 12-25 ans sous antidépresseurs de plus entre 2019 et 2023. Plus à même d’adopter les nouvelles technologies et habitué au format de messagerie instantanée, c’est un des plus importants publics qui s’approprie et relaye ces chatbots comme option d’accompagnement.
L’accessibilité de ces outils est loin d’être un argument anodin : les disparités d’accès aux soins restent une des premières causes des inégalités sanitaires dans le monde. C’est particulièrement vrai dans le cadre de la santé mentale, dont les principaux acteurs déplorent le manque endémique de ressources et qui reste un sujet difficile à aborder, quand il n’est pas tout simplement tabou dans certains milieux. Plusieurs utilisateurs témoignent ainsi que leur environnement géographique (absence de praticiens ou de structures spécialisées accessibles) et/ou social (stigmatisation voire discrimination) est un frein majeur dans leur accès aux soins, que le chatbot participe à lever. Les agents conversationnels représentent ainsi une solution pour explorer de façon autonome son ressenti, indépendamment du contexte dans lequel l’individu évolue.
L’anonymat de cette discussion « avec soi » participe également au succès des outils IA. La santé mentale touche à des sphères intimes, qui peuvent être difficiles à appréhender, et encore davantage à partager. De nombreux utilisateurs expliquent qu’ils considèrent l’agent conversationnel comme un miroir extérieur de leurs propres interrogations. Pas d’autre dont on craindrait le regard, le jugement, devant qui on devrait exposer une vulnérabilité. Il offre une expérience uniformisée et sécurisante : il est programmé pour être « d’humeur » égale et bienveillante, disponible en toute circonstances et à toute heure puisqu’il ne fatigue pas. L’utilisateur a un contrôle total du déroulé de son interaction avec l’IA. Le chatbot peut ainsi servir de terrain d’entraînement pour exprimer ses sentiments ou dialoguer lorsque le contact humain n’est pas disponible. Il se présente comme une solution pour lever certaines réticences à l’introspection et rassurer certains publics rencontrant des difficultés face à l’interaction sociale ou aux méthodes d’accompagnement existantes. Dans cette mesure, les agents conversationnels proposent une modalité d’accès simple et personnalisable pour appréhender la réflexion sur soi.
Ils permettent également d’envisager de nouvelles perspectives dans la nature même du suivi psychologique. Plutôt qu’une conversation à l’oral, l’utilisateur est invité à exprimer ses émotions et réflexions par écrit. L’expérience se déroule à la manière d’un journal intime qui poserait des questions ouvertes et proposerait des réponses cohérentes au fur et à mesure des entrées. Cette expérience à l’écrit, dénuée de l’influence que pourrait exercer une autre personne par sa présence, ses paroles ou comportements, représente une alternative efficace pour certains patients ou publics réceptifs ou ressentant des difficultés avec l’utilisation du langage verbal. Certains thérapeutes s’en servent déjà comme outil de médiation dans des cas spécifiques, comme avec certains patients autistes par exemple.
Devant la démocratisation des IA spécialisées en santé mentale, la question qui se pose est de comprendre leur fonctionnement.
Un chatbot « psychologue », comment ça marche ?
Dans le vaste domaine de l’intelligence artificielle, les agents conversationnels se placent dans la catégorie des IA dites génératives, c’est-à-dire des systèmes capables de générer du contenu en fonction des demandes de l’utilisateur, formulées sous forme de requêtes (prompts en anglais). Ces chatbots s’appuient sur des (grands) modèles de langage (LLM pour Large Language Model), des architectures d’apprentissage profond entraînées sur des quantités massives de données textuelles afin de pouvoir interagir en langage naturel et former des réponses cohérentes et informatives. Pour traiter le langage naturel, un LLM encode les données textuelles en les séparant en unités élémentaires du langage et en les associant à des tokens, c’est-à-dire des nombres entiers positifs. Par exemple, le mot « psychologie » pourrait être découpé en 3 unités « psy », « cho » et « logie » qui seront chacune représentée sous la forme d’un token et formeront donc un vecteur de nombres réels : c’est ce qu’on appelle le plongement lexical (embedding). Le LLM encode la phrase comme une suite de tokens puis prédit le ou les tokens suivants afin de construire sa réponse. Une fois la suite de tokens établie, le LLM la décode pour l’utilisateur, c’est-à-dire la traduit en langage naturel.
Lors de son entrainement, le modèle utilise cette méthode pour apprendre les relations statistiques entre les mots telles qu’elles existent dans les données d’entraînement. Par exemple, si l’expression « je me pose des » est souvent suivie de « questions » dans les textes sur lesquels il a été entraîné, le modèle augmentera la probabilité associée dans son processus de génération de texte. La qualité des données d’entrainement est donc essentielle : elle conditionne la manière dont le modèle va formuler ses réponses. Dans le cas d’un chatbot pour la santé mentale, des ressources comme des ouvrages de psychologie ou des transcriptions anonymisées d’entretiens entre patients et professionnels de santé sont pertinentes. Il peut également être entraîné pour réaliser des tâches spécifiques : pouvoir guider un utilisateur dans la réalisation d’exercices de relaxation, faire passer des questionnaires, diriger vers les services de santé spécialisés en fournissant un résumé des échanges avec l’utilisateur, etc.
Après entrainement et une fois déployé, le LLM se base sur le contenu de ses conversations avec l’utilisateur comme contexte pour orienter ses réponses. C’est la notion d’attention auto-régressive. A chaque fois que le modèle effectue une prédiction pour le prochain token, il prend en compte les prédictions qu’il a déjà réalisées pour estimer la suite la plus probable dans sa réponse, dans une certaine « fenêtre ». Cette fenêtre de contexte est comme la mémoire vive du modèle : elle contient une partie de l’historique de conversation avec l’utilisateur à laquelle le modèle va avoir accès pour ses prochaines réponses. Plus cette fenêtre est grande, plus le modèle peut intégrer un historique ancien, jusqu’à un certain point. Lorsque la fenêtre de contexte est pleine, elle va glisser le long de la conversation pour intégrer les nouveaux échanges et « oublier » les anciens. Ainsi, lors d’interactions longues, certains modèles finissent par perdre les informations des échanges qui sortent de la fenêtre de contexte. Ce facteur est fortement limitant dans l’optique d’un dialogue sur la durée : l’utilisateur devra nécessairement rappeler plus ou moins régulièrement au chatbot certaines informations ou lui repréciser le contexte pour améliorer la pertinence de ses réponses futures. Augmenter la fenêtre de contexte représente ainsi un des axes de développement des nouveaux modèles d’IA. Dans cette optique, Google a par exemple annoncé qu’un de ses derniers modèles, Gemini 1.5 Pro, dispose d’une fenêtre de contexte de deux millions de tokens, soit l’équivalent de plusieurs centaines de milliers de mots.
Ainsi, les LLM sont des algorithmes prédisant le mot le plus probable après une suite de mots donnée. Les réponses fournies par l’IA sont donc avant tout basées sur ces probabilités, orientées par le contexte et reflètent ses données d’entraînement : elle ne « comprend » pas la signification du texte entré par l’utilisateur ou de celui qu’elle génère en réponse. Elle peut ainsi « halluciner », c’est-à-dire proposer des réponses cohérentes et grammaticalement correctes, mais factuellement incorrectes, voire absurdes. Les requêtes effectuées par l’utilisateur permettent de fournir du contexte et de guider les messages du chatbot. Plus celles-ci seront précises et riches en informations, plus les réponses de l’IA auront de chance d’être pertinentes. Apprendre à bien formuler ses requêtes est donc essentiel pour améliorer l’interaction. La qualité du modèle sera elle aussi primordiale, tant au niveau de l’architecture, de l’entrainement que des fonctionnalités disponibles. Les grands développeurs d’IA sont ainsi dans une compétition permanente pour développer des outils plus performants et plus innovants que la concurrence (reconnaissance des émotions, des gestes, des intonations …).
Malgré l’enthousiasme certain que ces nouvelles technologies suscitent, les réactions sont loin d’être unanimes. Des voix s’élèvent, particulièrement au sein de la communauté des soignants, pour alerter sur les potentielles dérives liées à l’utilisation non contrôlée des agents conversationnels.
Un chatbot « psychologue », c’est dangereux ?
Il semble utile de rappeler dans un premier temps un certain nombre de faits séparant actuellement l’accompagnement par un professionnel de celui proposé par une IA. Nous l’avons vu, l’IA générative n’a pas de compréhension concrète du sens des mots. Elle construit ses réponses à partir d’unités linguistiques probables au vu du contexte présenté, et ne peut agir comme un thérapeute compétent qui a développé une expertise appuyée par son expérience. S’il suit un patient depuis longtemps, ce dernier prend en compte tout son historique pour orienter la thérapie, bien au-delà des capacités des fenêtres contextuelles existant actuellement. Il est moteur dans l’interaction avec le patient et intègre ses informations non-verbales, là où la majorité des agents conversationnels aujourd’hui peuvent uniquement répondre à des requêtes écrites.
Il faut également mentionner la dimension culturelle. De nombreux chatbots sont entraînés sur des données majoritairement en anglais. Une étude de chercheurs de l’EPFL Lausanne, disponible en preprint sur la plateforme arXiv, a exploré le fonctionnement interne de 3 modèles de langage. Les chercheurs suggèrent que ces modèles favorisent l’utilisation de l’anglais dans le traitement des données, impliquant un biais linguistique et culturel vers la langue anglaise. Cela peut créer un décalage avec l’utilisateur, là où un thérapeute aura une expérience de vie culturellement plus proche de son patient et de son milieu de vie.
En dehors des considérations techniques, l’utilisation d’IA pour le suivi thérapeutique soulève plusieurs questions juridiques et éthiques sérieuses.
Un aspect essentiel est la protection de la vie privée. Les informations échangées avec un chatbot peuvent être stockées ou utilisées pour entraîner le modèle en continu, à la discrétion de son créateur ou de son propriétaire. Or, elles sont par nature personnelles et sensibles, tout particulièrement dans le cas d’un accompagnement psychologique. Les utilisateurs sont rarement pleinement informés de l’utilisation qui sera faite de leurs conversations, posant la question de leur « consentement éclairé » et de la protection de leur vie privée. Cette opacité, aussi bien au niveau de la sécurité que de l’utilisation des données, représente aujourd’hui un enjeu important du domaine de l’IA. Plusieurs développeurs préfèrent en effet ne pas révéler la nature des données utilisées pour l’entraînement initial de leurs modèles ou la façon dont les interactions avec les utilisateurs sont traitées par la suite.
Ce manque de transparence impacte aussi notre capacité à appréhender le fonctionnement du chatbot : comment élabore-t-il concrètement ses réponses, quelle est la fiabilité des informations sur lesquelles il a été entraîné, comment s’assurer du contenu des conversations, qui est responsable s’il commet une erreur ? Un algorithme, aussi performant soit-il, n’est pas infaillible. Or, il n’est pas soumis à la législation ou aux règles déontologiques propres aux professionnels de santé. Dans le cas de la santé mentale, où les utilisateurs peuvent présenter des vulnérabilités psychologiques sérieuses et une influençabilité accrue, une erreur ou des réponses inadaptées peuvent avoir des effets délétères graves. Cette dimension de risque dans l’interaction avec l’IA peut également passer par son humanisation. Connu depuis longtemps sous le nom d’effet Eliza, ce mécanisme cognitif consiste à prêter à la machine les comportements et émotions d’un être humain, avec parfois des conséquences dramatiques. Pour tenter de pallier ces risques, plusieurs développeurs programment leur chatbot pour ne pas répondre sur des sujets très sensibles (comme le cas du suicide), voire pour diriger la personne vers des services spécialisés. Le cadre législatif est aujourd’hui encore flou et peine à avancer à la vitesse de la technologie.
Vers une utilisation sûre et réussie des chatbots en santé mentale
Les agents conversationnels apparaissent aujourd’hui comme une nouvelle option prometteuse dans l’accompagnement psychologique. Bien que récentes, ces technologies ont déjà convaincu de très nombreux utilisateurs et sont amenées à se perfectionner de plus en plus rapidement. Ils disposent d’atouts propres les distinguant des options déjà établies, comme leur accessibilité, leur potentiel en tant que vecteur d’introspection ou d’aide à la verbalisation, notamment lorsque l’accès à un professionnel est difficile. Les IA ne peuvent cependant pas se substituer à un suivi professionnel approprié quand celui-ci est nécessaire. Elles doivent être pensés comme de nouvelles modalités d’accompagnement pour répondre à des besoins spécifiques, des solutions complémentaires pour augmenter l’arsenal thérapeutique à la disposition des praticiens de santé et des patients. L’utilisation d’IA doit nécessairement passer par une sécurisation de ces systèmes en leur imposant des limites éthiques et juridiques claires. Ainsi, leur création bénéficierait grandement d’une participation commune de l’ensemble des acteurs concernés, dont les développeurs, les praticiens, les patients et le législateur. Cette institutionnalisation, soutenue par un cadre législatif solide, représenterait un moyen de remédier aux préoccupations sérieuses de protection des données et de responsabilité sociétale. Investir sur la formation des différentes parties prenantes participerait également à une meilleure utilisation de ces outils, plus en confiance. Il ne reste plus qu’à se saisir de cette technologie pour la façonner dans un but commun : aider.