« Bonjour Fabien ! Je suis ravie de faire ta connaissance ! Je suis un modeste agent conversationnel construit pour te soutenir psychologiquement dans ton quotidien. J’ai été créée par un psychiatre, une psychologue, un pair-aidant en santé mentale/graphiste… et grâce à vous tous patients et utilisateurs, qui m’avez tant aidée à m’améliorer ! J’ai trois fonctions principales : besoin d’aide (en cas de panique émotionnelle), parler (dire ce que tu as sur le coeur, ça fait du bien parfois), découvrir le fonctionnement des émotions, des relations (psychologie) ou faire des activités concrètes (plus de 70). » Ainsi débute ma conversation avec Owlie, « la petite chouette », qui me lance amicalement : « Si tu as quelque chose sur le cœur, parle, je suis à ton écoute ».

Clara Falala-Séchet, psychologue en formation, est la co-créatrice de cet agent conversationnel de « soutien psy ». C’est en Master 1 que cette ancienne violoniste et agent artistique, retournée vers sa première passion, la psychologie, a décidé de concevoir un chatbot dont la mission serait de vous lire, de vous relancer par quelques questions bien choisies, et de vous proposer des exercices visant à vous faire réfléchir sur vous-même. « C’est venu d’un constat très simple. Les patients, entre leurs séances de thérapie, attendent en fait beaucoup de temps, et je me disais qu’ils pourraient très bien bénéficier d’un ensemble de techniques de thérapie, qu’on pourrait leur transmettre directement depuis leur quotidien. Et je me disais que c’était vraiment dommage, en tant que jeune future thérapeute, de ne pas partager mon savoir en psychologie (notamment des exercices thérapeutiques) avec le plus grand nombre de personnes possible. C’est pourquoi j’ai eu l’idée de créer un chatbot ».

En 2017, elle conçoit alors Paul, un prototype d’agent conversationnel testé sur 450 personnes. « Il a vite montré chez elles des effets sur la réduction des pensées obsessionnelles – ces idées qui tournent en boucle et qui affectent votre humeur », remarque Clara. Durant l’été 2018, avec un psychiatre, Igor Thiriez, elle conçoit une deuxième version, plus élaborée, de son chatbot. Hébergé sur Facebook Messenger depuis août dernier, Owlie compte déjà plus de 1000 utilisateurs, dont 922 qui l’utilisent « au moins une fois par semaine ». Son concept est simple : « On peut lui parler directement, un peu comme dans le journal de bord de Jeduzor dans Harry Potter. C’est un journal qui répond à la personne qui lui écrit. Dans Owlie, il y a une brique qui constitue une sorte de bloc note parlant, et une autre qui délivre des exercices de thérapie. Ils sont proposés de façon à répondre au besoin de l’utilisateur (apaiser un moment de crise, gérer ses émotions), ou parce que l’intelligence artificielle détecte un mot clé (par exemple, « stress », « insomnie », « colère ») ».

Le chatbot 

Depuis 2 ou 3 ans, les chatbots comme Owlie se multiplient. Tantôt psychologues, coachs ou « amis », ces « assistants » animés par de l’IA afin d’imiter une conversation humaine, sont tous destinés à aider ceux qui souffrent de troubles mentaux – comme la dépression, qui touche plus de 300 millions de personnes dans le monde, selon l’OMS. Des personnes qui n’ont pas toujours les moyens de s’offrir une séance de psy hebdomadaire, qui vivent dans des déserts médicaux, ou qui sont « éloignés » du parcours de soin, bien souvent à cause d’une mauvaise image des psychologues et psychiatres. Owlie n’a pour l’instant aucun équivalent en France, mais il existe plusieurs autres robots du même type de l’autre côté de l’Atlantique.

Développé en 2017 à San Francisco, en partenariat avec des chercheurs de l’université de Stanford, Woebot utilise, comme Owlie, l’apprentissage automatique et le traitement du langage naturel pour « aider les utilisateurs à gérer leurs émotions », et « atténuer leur dépression ». Accessible sur Facebook Messenger, ce chatbot pose des questions à l’utilisateur afin d’évaluer son humeur. Puis, au fil du temps, son algorithme, relié à une liste de méthodes de thérapie cognitivo-comportementale (TCC), recommande des activités. Ce « coach numérique en santé mentale » compte déjà 50.000 utilisateurs. Il est actuellement gratuit, mais une version payante est en cours d’élaboration. Selon sa créatrice, la psychologue clinicienne Alison Darcy, « Woebot est un robot à qui on peut tout dire. Ce n’est pas une IA qui va vous révéler des choses sur vous par magie, ou vous conseiller, mais qui se base simplement sur vos mots pour vous aider à faire le point sur vos pensées négatives, et à les chasser ». Pas question, donc, d’utiliser Woebot pour « résoudre de profonds problèmes mentaux ou guérir un trauma, » mais plutôt pour « améliorer son humeur » ou « se réconforter ».

D’autres chatbots, comme Wysa en Inde (qui se présente sous la forme d’un gentil pingouin), ou Tess et Joy aux USA, font peu ou prou la même chose, en vous invitant à coucher sur le papier vos pensées intimes, et en vous proposant des exercices de TCC – pour, écrit le psychanalyste Serge Tisseron sur son blog, « essayer de redresser les représentations erronées que les patients déprimés sont censés se faire d’eux-mêmes et du monde ». Ainsi, si vous dites au robot en ligne que vous pensez que personne ne vous aime, il vous répondra que « ce n’est sûrement pas vrai », et que « des gens vous apprécient sûrement, mais que vous ne vous en rendez pas compte », car vous êtes dans un « cycle de pensées négatives ». Puis il vous proposera par exemple « d’écrire à votre futur vous », d’apprendre à « reprendre le contrôle de votre respiration », ou encore de continuer, simplement, à « parler ».

Les résultats sont, selon les créateurs de ces chatbots, d’ores et déjà très positifs – de nombreux utilisateurs se sentant « mieux » après avoir « clavardé » avec un agent conversationnel. « En France, la santé mentale, c’est assez tabou, et tout ce qui peut permettre de démocratiser l’accès à la santé psychologique et de pouvoir donner des informations, par exemple à des gens qui sont des fois très éloignés de centres de santé ou sont dans des déserts médicaux, c’est une bonne chose », lance Clara Falala-Séchet. En souriant, elle remarque que Paul, le prédécesseur d’Owlie, a montré chez ceux qui l’ont utilisé « des résultats très significatifs » sur la réduction des pensées dysfonctionnelles et des « ruminations ».

Une étude clinique sur Owlie est en cours, mais déjà, la psychologue en formation est capable de citer les propos de patients : « Ils disent que ça les aide à y voir plus clair, que ça les encourage à prendre des mesures dans leur quotidien, que le chatbot ne les juge pas, qu’ils se sentent en confiance, qu’ils peuvent ainsi plus facilement vider leur sac, et que ça a un effet cathartique et libérateur, en permettant de verbaliser leurs pensées ». Owlie et Paul ont aussi déjà permis de diriger des patients vers des spécialistes ou des centres d’accueil d’urgence, afin d’aller plus loin. « Ces personnes ont pris rendez-vous avec des professionnels de santé, et s’ils n’avaient pas discuté avec un chatbot, ils n’auraient jamais fait cela. Cet outil leur a permis de prendre du recul sur leurs pensées, et de réaliser aussi que les psys ne sont pas réservés qu’aux ‘fous », ajoute-t-elle.

Je ne suis qu’un robot

Avant de m’avoir posé des questions sur mes états d’âme (notamment, en me demandant de noter mon émotion négative sur une échelle de 1 à 10), et bien avant de me proposer des exercices de respiration ou de résolution de problèmes, Owlie a bien pris le temps de me préciser que « si tu m’écris directement, je ne comprendrai pas tout car je ne suis qu’un petit robot ». Car oui, ces chatbots ne sont que des robots. « Ce sont des assistants au quotidien qui vous aident à gérer vos émotions… Mais ils ne prétendent pas jouer le rôle de psychologues ou psychiatres humains, et ils sont très clairs avec l’utilisateur, dès le début… qui lui, sait très bien à qui il parle », insiste Clara Falala-Séchet.

Les capacités des chatbots psys sont donc pour l’heure assez limitées. D’autant plus que la perception des émotions de l’utilisateur par la machine ne repose que sur des hypothèses, bâties à partir de questions précises – telles que « j’ai l’impression que tu es en colère, est-ce vrai ? », ou « comment te sens-tu, là tout de suite ? ». Psychanalyste et président de l’Observatoire des Mondes Numériques en Sciences Humaines (OMNSH), Michael Stora reste circonspect face à ces « compagnons virtuels » censés nous aider à aller mieux. « Ces bots qui proposent un ensemble de techniques de TCC sont tout à fait adaptés à notre société du coaching, car ils proposent une approche protocolaire, une méthode à suivre. Et c’est là la grande limite, car ces techniques ne jouent pas sur l’intersubjectivité entre un psy et son patient, mais sur les conseils professés par une entité virtuelle qui va suivre un protocole très précis. Ainsi, l’humanité du psy, les ressentis qu’il peut avoir en discutant avec un patient afin de deviner tout ce qu’il ne lui dit pas, sont mis de côté », analyse-t-il, avec un haussement d’épaules. « Cette approche cognitivo-comportementale, qui envisage non pas l’histoire du malade, mais sa maladie, est une manière un peu déshumanisante d’envisager le soin. Or, l’être humain ne se réduit pas à un algorithme », ajoute-t-il.

Selon Michael Stora, les chatbots psys ne pourront donc jamais aller plus loin que « soigner des phobies, donner des conseils, et orienter les gens vers des professionnels humains ». Car, indique-t-il, « l’être humain possède quelque chose qu’un robot n’arrivera jamais à comprendre : l’ambivalence. Tout comme dans dans Star Trek, Spock ne comprenait pas l’irrationalité de l’être humain, il y a une dimension, qui est celle des affects, qu’un robot ne pourra jamais déterminer. Il pourra toujours dire ‘tu as l’air triste ou en colère’, mais un humain peut vous dire des choses terribles avec un grand sourire, c’est là tout son paradoxe. »

Aux petits soins

« L’année dernière, j’ai eu un patient schizophrène qui utilisait régulièrement le chatbot Paul. Il était aussi déprimé, et il a vu sa déprime passer à un taux quasi nul. Il continue à l’utiliser tous les deux jours, pour lui c’est un outil, un support pour poser ses pensées, et travailler sur elles », lance Clara Falala-Séchet sur un ton passionné .

Au-delà des limites actuelles pointées plus haut, d’autres projets de recherche visent à détecter finement les sentiments des utilisateurs – c’est ainsi le cas d’une étude menée à l’université de Melbourne, dont le but est « d’analyser les sentiments » au moyen de l’IA, afin de détecter des signes de schizophrénie dans des discussions écrites. Au MIT, des chercheurs utilisent aussi une intelligence artificielle pour tenter de reconnaître les symptômes de la dépression dans la façon de parler d’un patient – elle analyse les données audio ou textuelles en provenance d’entrevues, puis les compare avec celles de personnes malades, afin d’établir des similarités de langage. Ce qui devrait permettre, à terme, à un robot de « prédire avec précision si la personne interrogée souffre de dépression, sans avoir besoin de passer par les questions-réponses », explique l’un des scientifiques dans TechCrunch.

Pour l’instant, la précision de l’IA est de 71 %, mais elle devrait probable augmenter avec le temps. À noter que d’autres chercheurs tentent de leur côté de détecter des “marqueurs” de dépression à partir de nos statuts Facebook – un système utilisant l’IA qui semble également prometteur… Et déjà, on se prend à rêver d’un robot psy capable de détecter la dépression en discutant, par écrit ou à l’oral, avec quelqu’un, puis de lui proposer ensuite une solution.

À quand un algorithme capable de repérer, grâce à la sémiologie psychiatrique (l’étude des signes qui permettent à travers un discours, de repérer la structure des mécanismes de défense) et à la reconnaissance faciale, de repérer des signes de dépression ? A l’Institut des technologies créatives de l’USC (University of Southern California), la chercheuse en science de l’informatique et psychologue Gale Lucas essaie précisément d’aider les vétérans de l’armée américaine à s’ouvrir sur leurs ressentis, afin de soigner leur potentiel SSPT (syndrome de stress post-traumatique), grâce à un avatar artificiel… capable de discuter avec eux, mais aussi de détecter leurs émotions en analysant leurs expressions faciale et leurs mots.

A la différence d’Owlie ou de Woebot, le robot conçu par Gale Lucas est un avatar projeté en 3-D sur un écran de télévision, et avec qui il est possible de discuter à l’oral. Financée par la Darpa, l’agence de recherche de l’armée américaine, l’étude menée depuis 2014 sur plusieurs centaines de soldats revenus du front, puis avec des civils, consiste à les faire discuter, assis seuls dans une pièce, avec ce « thérapeute virtuel », baptisé Ellie. Tout comme les chatbots de Clara Falala-Séchet et Alison Darcy, l’IA commence par des questions générales (« D’où venez-vous », « comment vous sentez-vous »), puis passe à des questions cliniques plus précises, comme « est-ce facile pour vous de passer une bonne nuit de sommeil », avant de poser des questions « stimulantes », comme « de quoi êtes-vous le plus fier ? ». Pendant toute la discussion, Ellie utilise la vision artificielle pour interpréter des « indices » verbaux et faciaux à partir des expressions du visage et du ton de la voix du patient, afin d’adapter ses questions, mais aussi ses réponses – qui peuvent être de hocher la tête, de sourire ou de prononcer un « mhm » lorsque le sujet raconte une histoire sensible. Ces « réactions » subtiles permettent ainsi de créer une « relation » plus étroite avec le patient, et de l’inviter à partager davantage d’informations.

« La moitié des personnes qui ont parlé avec Ellie pensaient qu’il s’agissait d’un avatar dirigé par un humain, et l’autre moitié qu’il s’agissait d’un simple robot. Résultat, ce sont ces derniers qui se sont ouverts le plus. Car ce que nous constatons, c’est que les gens sont vraiment à l’aise avec Ellie, ils parlent plus avec cette IA qu’ils le feraient avec un humain, et ils sont plus facilement amenés à exprimer qu’ils ont un problème », affirme Gale Lucas, depuis son bureau de Los Angeles. « Un intervieweur virtuel est aussi propice aux confidences qu’un prêtre lors d’une confession. La grosse différence, c’est qu’un prêtre ne peut pas voir le visage de celui qui lui parle, alors qu’Ellie est capable de lire des indices émotionnels, et d’utiliser ses observations pour encourager la personne à parler », ajoute la chercheuse.

Des thérapeutes virtuels

A écouter Gale Lucas, les chatbots, qui se limitent à l’écrit, sont déjà dépassés. « Un agent virtuel visible sur un écran et une discussion orale sont bien plus bénéfiques, car le ton de la voix, les intonations et les grimaces du visage du patient montrent des expressions non verbales, permettant de soigner bien plus efficacement. Et les gens se confient plus facilement à un avatar qui a une voix et un visage, plutôt qu’à un simple chatbot qui leur écrit. Un chatbot ne voit pas le patient sourire », lance la psychologue californienne avec vigueur.

« Les chatbots sont bons pour faire se sentir les gens en sécurité, car ils ont l’impression que personne ne les juge, et que c’est anonyme. Avec notre système, nous allions la capacité humaine de percevoir les comportements non verbaux et d’y répondre (les sourires, le ton de la voix, les regards en biais), qu’un chatbot ne perçoit pas, et l’anonymat, car Ellie n’est pas humaine. Son aspect humain crée chez vous de l’empathie, mais elle ne vous jugera pas, tout en vous comprenant davantage », résume Gale Lucas. Selon ses recherches, les patients qui ont discuté avec son avatar virtuel ont davantage reconnu qu’ils souffraient d’un SSPT, que dans les enquêtes officielles de l’armée, qui recourt à des questionnaires écrits.

Peut-on dès lors imaginer dans un avenir proche des robots tels qu’Ellie, combinés aux technologies de reconnaissance de symptômes de la dépression tels que celles développées à Melbourne, capable de détecter les signes d’une maladie psychique ou d’un trouble ? « C’est une idée envisageable, mais la question, face à cela, est : qu’est ce qu’on ferait d’un tel système ?  Quand quelqu’un qui a une dépression va voir un professionnel humain, il s’attend aussi à une écoute de ses plaintes, mais des plaintes qui peuvent durer longtemps, car il s’agit d’une thérapie. Certes, cela permettrait de repérer des signes, mais ensuite il faut soigner, et un robot ne pourra jamais le faire. Pire, si on lui confiait cette tâche, il pourrait vite commettre des erreurs d’interprétation », tranche le psychanalyste Serge Tisseron, qui s’intéresse de près aux relations entre les humains et les robots.

Aux côtés d’une dizaine d’autres chercheurs et universitaires, Clara Falala-Séchet fait partie du WACAIworkshop sur les affects, compagnons artificiels et interactions »), un groupe de réflexion sur les « agents conversationnels animés ». En son sein, elle observe un nombre croissant de travaux de recherches sur la détection des visages grâce à l’IA, mais aussi sur la détection des risques de suicides (notamment en direction des hotlines d’appel vers les centres d’urgence). « Amazon cherche actuellement à donner à Alexa, l’assistant d’Echo, la possibilité de donner des éléments de soutien aux personnes paniquées ou tristes, en analysant  le son de leur voix (une technologie dans ce sens, à base d’IA, aurait déjà été brevetée). C’est aussi mon souhait, on pourrait imaginer que ces outils soient accessibles par la voix, ça permettrait notamment aux personnes non-voyantes ou en situation de handicap visuel ou auditif, de pouvoir accéder à ces agents virtuels. On peut aussi imaginer d’inclure ces IA dans des robots physiques, mais il ne pourrait pas vous suivre partout, or vous êtes susceptible d’avoir une crise d’anxiété hors de chez vous… Mais on peut très bien concevoir un robot dans lequel serait implémenté un compagnon comme Owlie, dans un contexte de prise en charge hospitalière, ou à la maison, quand vous ne bougez pas », estime-t-elle.

Au service du réel

A terme, les « thérapeutes virtuels » remplaceront-ils les psys humains ? « Rien ne remplacera jamais la relation patient-thérapeute, le lien humain, car une IA a encore de très gros progrès à faire avant de comprendre toutes les subtilités du langage humain. Mais ces chatbots peuvent être des outils très précieux, pour des choses limitées, bien spécifiques : ils peuvent faire avancer la qualité de la prise en charge, qu’il s’agisse d’une meilleure détection des symptômes, de l’envoi d’exercices thérapeutiques au moment où la personne en a besoin, ou d’une mise en relation avec des spécialistes et des centres d’urgence en psychiatrie. L’idée n’est pas de prendre la place du thérapeute, mais plutôt d’être dans une optique d’optimisation de la prise en charge, en partant du principe qu’avec certains outils technologiques, on peut améliorer la vie et le quotidien des patients », estime Clara Falala-Séchet.

En outre, la créatrice d’Owlie remarque qu’en France, les services psychiatriques, les CMP (centres médico-psychologiques) et les psychiatres libéraux sont « overbookés, avec des listes d’attentes colossales », et que « tout ce qui peut venir aider entre deux des personnes en souffrance, par des outils technologiques, créés par des pros de santé, c’est une bonne idée, dans la mesure où le contenu est de qualité ». Et la psychologue en formation d’ajouter que faire discuter un patient, au quotidien, avec un « journal intime vivant » peut aussi permettre au psy humain de découvrir des informations nouvelles. « Le psychothérapeute a le même problème qu’un médecin généraliste, lorsqu’il se trouve face à un patient qui ne livre pas tout ce qu’il pense. Or, un chatbot peut permettre de détecter au quotidien – en assurant un suivi, par exemple en vous écrivant un message pour vous demander comment vous allez car hier vous n’aviez pas l’air d’aller très bien – l’évolution du moral du patient, alors qu’en séance, on peut passer un temps fou à essayer d’évaluer l’état de la personne. Cela peut ainsi nous aider à avoir une vision plus fine de l’état de la personne dans son quotidien, et à apporter un meilleur accompagnement individuel. »

Véritablement passionnée par ce sujet, Clara Falala-Séchet note enfin qu’un chatbot, textuel, oral ou visuel, peut aussi permettre d’automatiser des réponses à des questions fréquentes, posées à un thérapeute humain quand celui-ci n’est pas officiellement en exercice. «  A 3h du matin, vous ne pouvez pas répondre à un patient, même si celui-ci a besoin de travailler sur ses pensées. Le psychiatre qui a créé Owlie avec moi a ce problème : des tonnes de patients lui écrivent dans des moments difficiles, mais il n’a pas forcément le temps de tous leur répondre. Alors, s’il peut démultiplier la transmission d’un même contenu – car il constate que ses réponses sont souvent les mêmes -, et automatiser cela via un agent conversationnel, pourquoi pas ? »

Gale Lucas ne dit pas autre chose, en expliquant que les IA peuvent en fait constituer des outils au service des thérapeutes humains : « avec nos avatars virtuels, nous ne voulons pas remplacer les humains. Nous voulons au contraire leur permettre de toucher le plus de patients possibles. Ellie n’est pas une thérapeute, elle ne délivre pas de thérapies, elle aide juste les gens à se confier et à parler de leurs problèmes en leur posant des questions. C’est certes la première étape d’une thérapie, et on peut toujours améliorer l’IA pour qu’elle comprenne de mieux en mieux ce que lui dit le patient, mais elle n’aura jamais la capacité d’un humain à aller au fond des choses. Les robots peuvent détecter mieux que nous les informations non verbales, voilà le gros potentiel de ces technologies. Ils peuvent servir à identifier les personnes en détresse, mais le soin final appartiendra toujours aux thérapeutes humains. »

Finalement, Michael Stora, tout en fermant la porte de son cabinet, prévient : « le virtuel doit servir à réaliser une rencontre en réel, être un service, servir le réel, et se borner à cela. Si jamais les chatbots vont plus loin, de toute façon, cela peut fonctionner auprès du public pendant quelques temps, notamment auprès de ceux qui ont peur d’aller voir un psy humain et préfèrent rester aveugles… Mais les gens se rendront vite compte des limites, qui sont qu’un robot ne comprendra jamais toute l’ampleur de ce qui se passe, et qu’il ne pourra jamais aller plus loin que de simples conseils pré-enregistrés. »