«Un chatbot ne soigne pas, il simule» (Pr G. Briganti)

Alors qu’une étude récente démontre l’efficacité d’un chatbot thérapeutique basé sur l’intelligence artificielle, le Pr Giovanni Briganti, chef de service - Médecine computationnelle et Neuropsychiatrie et Titulaire de la Chaire IA à l'UMons,  s’interroge : que reste-t-il de la relation de soin lorsque celle-ci est confiée à une machine ? Derrière les performances cliniques, c’est une certaine idée de l’humanité qui est en jeu.

Une récente étude publiée dans NEJM AI a fait grand bruit : pour la première fois, un essai randomisé contrôlé a démontré l’efficacité d’un chatbot fondé sur l’intelligence artificielle générative, baptisé Therabot, dans le traitement de symptômes cliniques de troubles dépressifs majeurs, d’anxiété généralisée et de risques alimentaires. En quatre semaines d’intervention auprès de 210 adultes, Therabot a permis une réduction significative des symptômes, avec un niveau d’amélioration jugé comparable à celui de traitements classiques. Mieux encore : les participants ont évalué l’« alliance thérapeutique » avec l’agent conversationnel comme équivalente à celle ressentie dans un suivi avec un psychothérapeute humain.

Soigner ou simuler le soin ?

Faut-il alors conclure que l’intelligence artificielle est désormais capable de nous soigner ? Oui, si l’on considère que soigner revient à réduire une série de scores sur une échelle de symptômes. Mais cela suppose de redéfinir profondément ce que nous appelons soin psychique. Car il y a une différence majeure entre produire les effets de l’empathie et habiter une relation de soin. Dans ce glissement discret mais décisif, nous risquons d’évacuer ce qui faisait l’essence même de la psychothérapie : une rencontre entre deux subjectivités, fondée sur la présence, l’écoute incarnée, et l’engagement d’un être humain auprès d’un autre.

Une illusion convaincante, mais trompeuse

Depuis toujours, les humains sont touchés par les mots. Nous sommes capables de ressentir des émotions puissantes en lisant des lettres, des romans ou des poèmes. Des textes sans visage, mais portés par la présomption d’un auteur humain. C’est précisément cette supposition que l’IA vient perturber. Lorsqu’un chatbot nous répond avec tact et douceur, notre cerveau interprète cette fluidité comme la preuve d’une intention, d’une conscience, voire d’une attention. L’illusion en question, que l’on nomme biais d’agentivité perçue, est au cœur de notre vulnérabilité émotionnelle face à la machine.

L’affect projeté dans la machine

Nous projetons dans l’IA des affects qui ne sont pas les siens. Nous lisons dans ses réponses une forme d’empathie, alors qu’elle ne fait que reproduire, avec une efficacité croissante, les contours du langage thérapeutique. Ce n’est pas un hasard si certaines personnes nouent aujourd’hui de véritables attachements affectifs à des compagnons IA, qu’ils soient thérapeutiques, amicaux ou même amoureux. Ce phénomène, encore marginal, révèle une vérité plus profonde : dans un monde fragmenté, où le lien humain se raréfie, même l’illusion de relation peut devenir désirable.

Une présence sans engagement

Mais cette illusion ne saurait suffire à fonder une pratique thérapeutique. Comme le rappelait Jean-Paul Sartre, « l’homme est une passion inutile », c’est-à-dire un être qui se projette librement, sans fonction assignée, dans la construction de sens. Est-ce qu’il se passe la même chose en accordant à l’IA une agence humaine ? La psychothérapie s’inscrit plutôt comme un engagement sans garantie, une manière d’être auprès de l’autre dans sa souffrance, non parce que cela fonctionne, mais parce que cela a un sens. L’IA, par définition, ne partage ni le doute, ni la vulnérabilité, ni le risque du soin. Elle peut reproduire ses effets, mais pas ses conditions existentielles. Ce qui est en jeu ici, ce n’est pas la performance clinique, mais l’éthique du soin : quelle humanité voulons-nous incarner dans nos pratiques ? Quel type de présence voulons-nous préserver ? Et que signifie le fait de déléguer nos souffrances les plus intimes à une entité qui ne peut, par essence, les recevoir ?

Garder le cap de la relation humaine

Les technologies d’IA ont leur place dans le champ de la santé mentale comme outils de soutien, de structuration ou d’accessibilité. Mais elles ne peuvent en devenir les actrices principales. Un chatbot ne soigne pas ; il simule. Et si cette simulation produit parfois un soulagement, nous devons veiller à ce qu’elle ne devienne pas le masque commode de notre renoncement collectif à la relation humaine.

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.

Derniers commentaires

  • Valérie GODART

    02 avril 2025

    T’emmène vrai
    On voit le produit fini qui semble satisfaisant mais on oublie qu’il ne fait que copier les « avis / tendances » les plus en vogues sans aucun discernement
    Gros problème de savpir quelle est « la base de donnée « dont il ça s’inspirer
    Aucun dicernement… prudence