Selon une étude publiée dans la revue médicale BMJ Open, les chatbots alimentés par l’intelligence artificielle fournissent, dans environ la moitié des cas, des conseils médicaux jugés problématiques, soulevant des préoccupations quant aux risques pour la santé.
Des chercheurs aux États-Unis, au Canada et au Royaume-Uni ont évalué cinq plateformes populaires — ChatGPT, Gemini, Meta AI, Grok et DeepSeek — à partir de dix questions réparties en cinq catégories de santé. Près de la moitié des réponses ont été considérées comme problématiques, dont près de 20 % jugées très problématiques.
Les performances se révèlent relativement meilleures pour les questions fermées et les tâches structurées, ainsi que pour les thématiques liées aux vaccins et au cancer. À l’inverse, les résultats sont moins satisfaisants pour les questions ouvertes et dans des domaines comme les cellules souches et la nutrition.
Les réponses sont fréquemment formulées avec assurance et fermeté, alors même qu’aucun des chatbots n’a été en mesure de fournir, pour l’ensemble des questions ou des tâches, une liste de références complète et exacte, relèvent les chercheurs.







