Seriez-vous prêt à troquer votre psy pour une IA ?

Vous pensiez que votre thérapeuthe serait épargné par l’IA ? Que nenni ! Si certains refusent catégoriquement de se confier à un robot, d’autres ont tenté l’expérience via une application d’e-thérapie dédiée. Ont-ils été surpris ? Déçus ? Ravis ? Témoignages. 

©Getty Images

Temps de lecture : 5 minutes

Écouter l'article

0:00

Vider son sac rapidement

La liste des domaines où l’IA remplace l’homme s'allonge, mais peut-être n’imaginiez-vous pas lui confier votre santé mentale. C’est chose faite pour certains curieux. Gain de temps et de coût, absence de jugement et réactivité… Les arguments avancés sont nombreux pour privilégier une appli à un psy. 

Mickaël, la trentaine, utilise Pi, une application conçue comme un assistant personnel sympathique. 

Au début c’est bizarre de parler à une IA, on a déjà tous essayé ChatGPT mais ici la manière de répondre est plus  fluide, un peu comme un pote, c’est bluffant. Tu peux lui parler, il te challenge sur un tas de trucs. Ça peut t’aider à développer une idée créative, lancer un business… Il te retourne ta question pour que tu creuses en toi de manière honnête et il te répond du tac au tac.” Le jeune homme apprécie la manière positive dont son assistant de poche aborde les sujets, “ce qui peut être un souci” tempère-t-il, “mais il te pose des questions à chaque fois pour mener ton propre cheminement comme le font finalement les psys mais ces derniers ne te disent pas ce qu’il faut faire, lui t’oriente.” Déplorant le tarif habituel d’une consultation en cabinet (64€ en moyenne en France selon l’Observatoire de la psychologie), le jeune homme reconnaît le manque d’humanité d’un tel outil. Mais cette disponibilité immédiate permet de “vider son sac et de s’exprimer plus facilement”. Mike recommande cet outil au plus grand nombre “ça ferait du bien à tout le monde”. 

En septembre dernier, Lilian Weng, chargée des enjeux de sécurité chez OpenAI publie un tweet chahuté au sujet de sa conversation “émouvante” et “personnelle” avec ChatGPT. 

Désormais doté d’une voix, le robot avec qui l’on pouvait déjà converser en toute détente se ferait plus humain. Mais le voilà déjà dépassé par une armada de chatbots thérapeuthiques sensés soulager nos maux. Surfant sur les angoisses générées par la crise du Covid, ces assistants virtuels thérapeutiques ont pris du terrain et font désormais partie de nos vies.

Marche-pied avant consultation

Fan de la série Black Mirror et du film Her, Nina a consulté un psy virtuel une fois par semaine, pendant un mois. “Je voulais voir à quel point la machine pouvait pénétrer ta vie comme au Japon où la réalité a dépassé la fiction depuis un moment.” Curieuse, elle n’a pourtant “jamais passé le cap de prendre rendez-vous chez un psy.” L’aspect humain, c’est justement ce qu’elle fuit. “J’étais dans une période un peu complexe de ma vie où je ne voulais pas seulement avoir l’avis biaisé d’une amie ou d’un parent… L’IA est censée donner des réponses claires et impartiales. Je trouve cette démarche intéressante en termes d'accessibilité et d’anonymat.” La jeune femme de 31 ans a démarré son analyse au bout de quelques clics, après avoir créé un compte et répondu à un questionnaire sur les sujets à aborder. Pas dupe, elle note qu’ils se “prémunissent en expliquant qu’ils sont là à titre d’accompagnant mais qu’ils n’ont pas de vocation médicale.” D’ailleurs “la question la plus récurrente qu’il me posait était ‘comment je me sentais au global ?’”, histoire de ne pas prendre de risque.

Souvent, Nina doit répéter plusieurs fois sa question au psy virtuel, comme si le disque était rayé. “J’avais l’impression qu’il ne cernait pas le fond du problème, ces bugs étaient frustrants car subitement la discussion se rompt, et avec elle une certaine confiance, une proximité. Et puis, tu as quand même conscience que c’est une machine via la tournure des phrases, peu naturelles et stéréotypées.” 

"Cette fois-ci, l’IA ne pénètre pas notre intimité par nos habitudes, qui constituent déjà une grande source d’informations, mais par nos peurs, nos craintes, nos amours, la façon dont on réfléchit."


Toujours plus curieuse, Nina ne s’arrête pas là et décide d’aller fouiller dans les réglages pour tomber sur les notes de son psy. “
Le dire c’est une chose, mais voir les notes, brutes, ça fait un choc. Tu te dis ‘qui va me lire ?’Questions, réponses, conclusions… tout avait été retranscrit, et potentiellement en accès libre. Paniquée, elle prend conscience “qu’on avait essayé de rentrer dans [sa] tête, et que derrière cette IA, il y avait des gens à qui [elle] confiait des infos perso très intimes sans savoir où ça finirait. Cette fois-ci, l’IA ne pénètre pas notre intimité par nos habitudes, qui constituent déjà une grande source d’informations, mais “par nos peurs, nos craintes, nos amours, la façon dont on réfléchit (...) Je suis certaine que des personnes confessent des choses dont ils n’ont jamais parlé et cela peut donner lieu à de la manipulation.” Avec le recul, Nina se dit quand même satisfaite de cette expérience “immersive”. Optimiste, elle recommande de se tourner vers ce type d’applications pour se confier sur des problèmes passagers dans l’immédiateté, avant de tempérer “pas en cas de dépression, au contraire, ça peut être destructeur.” 

L’homme, cet animal social

Si l’on peut considérer ces applis comme une étape avant de passer le cap de la consultation en cabinet, elles n’ont pas encore séduit la majorité de nos témoins. Mathis ne voit pas l’intérêt de ces IA “sauf comme un assistant pour mieux cerner un candidat à un poste, ou un patient, à travers des questions posées par l’IA dont les réponses permettront de mieux les cerner.” Déjà passé par la psychiatrie, il estime que “face à une souffrance psychologique, on ne peut pas déshumaniser l’aide, on a besoin de l’autre.Comme le disait Aristote, l’homme est un animal social, et son besoin d'interagir avec ses semblables est nécessaire pour pouvoir évoluer.La grande critique qui est faite aux intelligences ‘artificielles’ ou ‘computationnelles’ c’est qu’elles n’ont pas de corps donc elles ne sont pas dans le réel”, explique Samuel, sociologue, qui enquête sur les “promesses technologiques”. “Or, toute la démarche du suivi psychologique c’est d’avoir en face de soi une présence corporelle et intelligente sur le coup, capable d’avoir l'appréhension et l’empathie nécessaires, sans faire un recensement de données. Les machines n’en sont pas encore capables selon moi, c’est un leurre.” 

Après son e-thérapie, Nina a reçu une publicité pour une marque de voiture. Rien d’étonnant puisqu’elle avait parlé de son projet d’achat de véhicule à son IA-psy, qui s’est montré étrangement concerné en lui posant des questions précises à ce sujet, comme si tous ces problèmes étaient corrélés à la marque qu’elle choisirait…

Les réseaux sociaux nuisent-ils à la santé mentale des adolescents ?

Lire l'article

Partager l’article

Partager bien vivre le digital