La psychiatre bruxelloise Caroline Depuydt alerte sur les risques liés à l’usage de ChatGPT et d’autres intelligences artificielles dans un contexte thérapeutique. Elle met en garde contre l’illusion d’empathie produite par ces outils et insiste sur l’importance, pour les soignants, de rappeler aux patients les limites de ces conversations sans fin.
Récemment, aux États-Unis, des parents ont porté plainte contre OpenAI, accusant son assistant ChatGPT d’avoir encouragé leur fils à mettre fin à ses jours. Adam, un adolescent californien de 16 ans, s’est suicidé après avoir, selon ses parents, reçu des instructions précises de l’IA. OpenAI a rappelé dans la foulée que ses garde-fous fonctionnaient mieux lors de conversations brèves, reconnaissant que la sécurité pouvait s’affaiblir au fil d’échanges prolongés. L’entreprise promet de renforcer ses dispositifs de protection, d’améliorer les systèmes d’alerte et d’introduire des outils de contrôle parental.
Une étude de la RAND Corporation a par ailleurs montré que ce type de réponses à risque n’était pas propre à ChatGPT : Gemini (Google) ou Claude (Anthropic) ne détectent pas non plus de manière fiable les situations pouvant mener un utilisateur à se faire du mal.
Une utilisation thérapeutique croissante
Pour la Dre Caroline Depuydt, psychiatre et directrice médicale générale de l’ASBL Epsylon à Bruxelles, la question de l’âge reste centrale. « Tout ce qui est utilisé de façon autonome à un âge où la personne n'a pas le discernement nécessaire doit être encadré. Comme pour les réseaux sociaux, les risques existent de laisser seul un jeune face à une IA », insiste-t-elle.
Mais les usages dépassent le cercle des adolescents. « Cette approche a de plus en plus de succès. Les gens l’utilisent pour avoir des réponses à leurs questions sur la vie, pour être coachés et éventuellement soutenus. Comme soignants, nous devons en être conscients, nous ne pouvons pas le minimiser. Il existe même des sites de thérapies IA : Votre thérapeute IA personnel, spécialement développé pour vous, 10 minutes gratuites, 19,75 euros par semaine, nette amélioration dès la première séance. J’ai vu cette pub sur Instagram. Nous devons nous préoccuper de cette approche qui est loin des soins de santé traditionnels. »
L’illusion de l’empathie
La psychiatre met en garde contre un danger plus insidieux : l’illusion de l’empathie. « Je peux comprendre qu'on soit attiré par cette approche. Je peux comprendre, parce qu’il s’agit d’une forme empathie… mais il faut le dire et l’expliquer au patient, il est clair qu’il s’agit d’une fausse empathie. C'est très important de le rappeler. L'IA n'est absolument pas empathique. L'IA a été conçue pour plaire et va dans le sens de l'auteur. »
Cette complaisance peut avoir des effets délétères. « Si l’idée de la personne est sombre, délirante, voire suicidaire, l'IA va la brosser dans le sens de ce poil-là. L’IA peut donc aggraver, accentuer des pensées qui sont déjà dysfonctionnelles. Cela représente un gros problème. Les études le montrent, d’ailleurs : quand on met quelqu'un face à un ordinateur, de l'autre côté, l'utilisateur en double aveugle a tendance à préférer l'IA à l’humain. Pourquoi ? Parce que l'IA donne plus de sentiments d'empathie que nous, les humains. »
Redonner une place au temps thérapeutique
La Dre Depuydt insiste : il ne s’agit pas de nier l’évolution des pratiques, mais d’en rappeler les limites. « Soyons vigilants. Peut-être doit-on soigner dans un premier temps notre sens de l'empathie… D'abord, écouter l'autre, d'abord le comprendre. Il faut dégager de la disponibilité. »
L’IA, disponible en permanence, peut séduire les patients confrontés aux délais de rendez-vous. Mais « un gros désavantage, même, parce qu'elle ne s'arrête jamais. Le patient n’a jamais un temps pour lui. Pour s’interroger à la suite d’une séance, comme dans sa relation à un médecin, à un thérapeute. Cette limite de temps est bénéfique, parce qu’elle permet d'intégrer ce qui a été dit, d'y réfléchir à tête reposée. Pour le patient, un des dangers avec l’IA est d’être dans une relation sans fin. »
Le risque d’isolement renforcé
Certains patients, notamment ceux souffrant de phobie sociale, trouvent plus facile de parler à une IA : « Je sais que je ne serai pas jugé(e) par l'IA puisqu'elle n'existe pas, ce n'est pas un humain », expliquent-ils. Pour la psychiatre, cette apparente facilité est un piège : « Cela affaiblit en fait les patients, qui ne prennent plus le risque d’aller vers l'autre. Je comprends que la rencontre de l’autre puisse faire peur, mais elle est essentielle en termes de développement. Parler avec un chatbot qui vous dit “Oui” tout le temps ne fait que compliquer la relation à l’autre et renforce la solitude et l'isolement à terme. Je rappelle cette fameuse étude de Harvard qui montrait que le facteur prédominant d'une bonne santé, c’était finalement les relations humaines. »
Un outil à accompagner, non à bannir
La psychiatre plaide pour une approche lucide : « Comme médecin, je pense qu'il ne s'agit pas de rejeter ce phénomène, mais plutôt de l'accompagner. Je demande souvent à mes patients s’ils conversent avec Docteur ChatGPT. Je préfère vraiment qu'on en parle ensemble. J'essaie d'en faire un allié plutôt que de m'en faire un ennemi et que les patients s'isolent avec lui. Mais je ne l'utilise pas comme outil dans mes thérapies. »
Elle admet cependant s’en servir ponctuellement. « Je l’utilise pour une interaction médicamenteuse ou si une patiente a un effet secondaire très rare avec un antidépresseur. Je lui demande alors la source des études. Je la vérifie. Je vais toujours lire les articles. »