Les chatbots basés sur l'intelligence artificielle (IA), comme ChatGPT, s'imposent de plus en plus comme des alliés cliniques pour les patients en quête de conseils rapides, selon une enquête approfondie du New York Times publiée le 16 novembre.
Des milliers d'utilisateurs, des zones rurales aux métropoles, s'appuient sur ces outils pour naviguer entre consultations coûteuses, récupération post-opératoire ou effets secondaires négligés par les soignants. Mais une étude clinique récente alerte : malgré leur accessibilité, ces IA produisent souvent des réponses inexactes, soulignant l'urgence d'une régulation accrue pour un usage thérapeutique sécurisé.
L'article met en lumière des cas concrets : une femme du Wisconsin interroge ChatGPT pour éviter des rendez-vous onéreux, une auteure en Virginie rurale gère sa convalescence chirurgicale avant un suivi médical, et une psychologue clinique de Géorgie, Elizabeth Ellis, 76 ans, obtient des réponses empathiques sur les effets secondaires de son traitement contre le cancer du sein, ignorés par ses prestataires.
Un usage massif qui modifie les comportements de soins
Ces témoignages révèlent un fossé croissant : 40 % des Américains utilisent déjà des chatbots pour des questions médicales, selon une étude de l'Université Johns Hopkins, boostant l'autonomie des patients mais risquant de retarder des soins essentiels. Du point de vue clinique, l'impact est double. Positivement, ces outils démocratisent l'accès à l'information, particulièrement en télémédecine et pour les maladies chroniques comme le diabète ou les troubles mentaux. Une méta-analyse de 2025 dans The Lancet Digital Health montre que les chatbots réduisent de 25 % les appels non urgents aux urgences.
Des limites cliniques préoccupantes
Cependant, la Dre Danielle Bitterman, co-auteure d'une étude de la Harvard Medical School, pointe des inexactitudes systématiques : même entraînés sur des données fiables, les modèles génératifs hallucinent jusqu'à 30 % des réponses en scénarios complexes, comme l'interprétation d'effets secondaires ou de symptômes rares.
Vers une régulation internationale renforcée
En réponse, des guidelines internationales émergent : la FDA américaine et l'OMS préconisent des validations cliniques rigoureuses pour les « chatbots thérapeutiques », tandis qu'en Europe, l’AI Act classe ces outils comme « high-risk » en santé. Des startups comme Woebot, pour la santé mentale numérique, intègrent désormais des protocoles de « hand-off » vers des cliniciens humains. Aux États-Unis, des hôpitaux comme la Mayo Clinic testent des versions hybrides, couplant IA et supervision médicale pour une précision de 85 %.







