ChatGPT en consultation médicale : une étude pionnière mesure son potentiel et ses limites

L'hôpital EpiCURA, l'Université de Mons, le CHU Saint-Pierre et l'Hôpital Foch (Paris) ont participé à l'une des premières études internationales évaluant la performance de ChatGPT dans la gestion de cas cliniques concrets. Bien que l'IA démontre une capacité à poser des diagnostics et à proposer des examens complémentaires ainsi que des traitements pertinents, elle n'est pas (encore) prête à remplacer l'expertise du médecin humain.

L'évolution de l'intelligence artificielle est impressionnante. ChatGPT semble capable de passer et de réussir des examens universitaires, démontrant une connaissance théorique en médecine surprenante. Cependant, de nombreuses questions demeurent quant aux limites des systèmes d'IA actuels, notamment leur capacité à gérer des soins médicaux humains.

Une étude internationale sur 45 patients

Les Professeurs Jérôme Lechien et Stéphane Hans ont récemment publié les résultats d'une étude portant sur 45 patients présentant des pathologies courantes en médecine générale et en oto-rhino-laryngologie. Le tableau clinique de ces patients a été présenté à l'intelligence artificielle ChatGPT. Dans cette étude, le médecin a présenté à l'IA les symptômes, antécédents, médicaments et résultats d'examen clinique des patients, puis a interrogé l'IA sur les diagnostics différentiels potentiels, le diagnostic principal, les examens complémentaires et les traitements. Deux médecins ont ensuite analysé les performances de l'IA en utilisant un nouvel outil clinique développé et validé lors de cette étude, l'Artificial Intelligence Performance Instrument (AIPI).

Un diagnostic plausible et correct dans 63.5% des cas

Dans l'ensemble, ChatGPT a proposé un diagnostic plausible et correct dans 63.5% des cas et des diagnostics différentiels (alternatifs) plausibles dans 28.5% des cas. Les examens complémentaires suggérés par l'IA pour confirmer le diagnostic étaient pertinents et totalement ou partiellement nécessaires dans 29% des cas. Quant aux traitements, ils étaient pertinents et nécessaires dans 22% des cas, et pertinents mais incomplets dans 16% des cas. Dans le reste des cas, les interventions thérapeutiques proposées étaient un mélange de traitements pertinents, nécessaires, inadéquats et inutiles.

Quel est le rôle de l'IA ?

Globalement, l'IA fournit une liste de possibilités, fonctionnant comme une encyclopédie virtuelle performante, mais elle n'est pas (encore) capable de discerner et de hiérarchiser les diagnostics et les examens complémentaires selon leur pertinence. Si l'IA peut se révéler très utile dans la formation des jeunes médecins, elle ne peut pas encore remplacer le discernement humain du praticien. De plus, elle propose souvent une liste d'examens complémentaires dont une grande partie n'est pas utile ou pertinente, ce qui peut conduire à des confusions chez les patients qui utiliseraient l'IA avant de consulter leur médecin.« Des recherches supplémentaires sont nécessaires pour explorer le potentiel de l'IA en médecine et trouver un rôle qui lui permette d'améliorer la qualité des soins prodigués aux patients », concluent les chercheurs.

Le Professeur Jérôme Lechien avait également collaboré à une étude récemment publié dans le même journal European Archives of Oto-Rhino-Laryngology portant sur le potentiel de Chat-GPT en tant qu'outil d'aide à la prise de décision clinique en sialendoscopie et à l'information des patients.

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.