Le Dr Laurent Alexandre, chirurgien-urologue de formation, spécialiste en intelligence artificielle et auteur de nombreux livres l’affirme : associer un médecin à une IA produit de moins bons résultats que l’IA seule. Philippe Devos, directeur général d’Unessa, nuance : c’est « vrai et pas vrai ». Le débat est plus complexe qu’il n’y paraît.
La formule de Laurent Alexandre, lancée lors de son audition devant la mission d’information de l’Assemblée nationale française le 7 avril 2026, a de quoi déranger : « Médecin plus IA, c’est moins bien qu’IA sans médecin. » Pour le chirurgien et essayiste français, le duo humain-machine ne produit pas de meilleurs résultats que la machine seule. Il s’appuie sur des travaux menés à Cambridge et à Harvard, qui montrent, selon lui, que cette complémentarité est « tout sauf évidente » dans le domaine médical. Lui-même, chirurgien de formation, dit « regretter profondément » les onze années consacrées à sa qualification.
Il nuance lui-même son propos : en fin de séance, il appelle à ne pas « surjouer l’opposition ». La complémentarité n’est pas impossible. Elle est simplement « un combat, loin d’être gagné d’avance », et que ni l’école ni la formation médicale n’ont encore appris à mener.
« C’est à la fois vrai et pas vrai »
Philippe Devos, directeur général d’Unessa et observateur attentif du déploiement de l’IA en milieu hospitalier, refuse le constat binaire. « C’est à la fois vrai et pas vrai », répond-il à la thèse du Dr Alexandre. Des études montrent effectivement une surperformance de certains systèmes d’IA seuls face au duo IA + médecin. Mais d’autres études prouvent le contraire. Sa conclusion : il n’y a pas une réponse, il y a des contextes.
Trois facteurs déterminent le résultat. La qualité de l’IA d’abord : « Il n’y a pas une IA, il y a des IA. Il y en a des bonnes et il y en a des nulles, comme les humains. » La qualité du médecin ensuite. Et enfin, le plus décisif, selon Philippe Devos : la conscience que le praticien a de ses propres limites et de celles de l’outil. « Deux clefs, qu’elles soient virtuelles ou réelles, restent des clefs », dit-il avec humour.
L’effet flatteur, un piège méconnu
Philippe Devos pointe un mécanisme désormais connu : l’effet flatteur des intelligences artificielles. « Souvent, l’IA dit “très bonne question”. Cela augmente les chances que l’humain adhère à la réponse sans réfléchir. » Un médecin ignorant les biais de son outil ne sera alors pas corrigé par elle, il sera conforté. La machine amplifie ses erreurs plutôt que de les corriger.
Au-delà de la flatterie, les biais de l’IA sont multiples : hallucinations (informations fausses présentées avec assurance), drift (dérive progressive des réponses au fil d’une conversation), ou encore confusion entre corrélation statistique et lien physiologique réel. « Si le médecin connaît ses biais et connaît son IA, sa double méfiance va lui permettre de trier correctement l’information et d’être supérieur » au système seul, conclut Philippe Devos.
La complémentarité, ça s’apprend
En creux, cette analyse dessine une exigence nouvelle pour la formation médicale : non seulement former aux outils, mais aussi à la méfiance envers eux. Connaître ses propres biais cognitifs. Connaître les limites techniques de l’IA utilisée. Savoir quand lui faire confiance. Et quand la remettre en cause.
Laurent Alexandre et Philippe Devos se rejoignent donc sur l’essentiel, même si la formulation diffère : la complémentarité entre médecin et IA n’est pas automatique. Elle est le résultat d’une compétence spécifique encore à acquérir.







