Le rôle croissant de l’IA en médecine

L’intelligence artificielle (IA) occupe une place croissante dans les soins de santé, de l’aide au diagnostic à l’optimisation logistique. C’est ce qu’illustre une réflexion présentée le 3 juin lors d’une conférence organisée par la Chaire innovation médicale du Centre hospitalier Epicura et de l’UMons, soulignant les promesses mais aussi les limites de ces technologies dans le cadre médical.

L’intelligence artificielle prend une place croissante dans les dispositifs de production, d’organisation et d’évaluation des soins. Elle s’insère dans des segments variés de la médecine contemporaine : assistance au diagnostic, interprétation d’images, triage en situation d’urgence, traitement du langage en contexte clinique, médecine prédictive ou encore optimisation logistique des hôpitaux. Ces domaines évoluent à des rythmes différents. Certains, comme l’aide à l’analyse radiologique, bénéficient déjà d’applications cliniques validées ; d’autres, tels que les agents conversationnels destinés à interagir avec les patients, demeurent au stade exploratoire, parfois dépourvus de fondement méthodologique solide.

Quintuple hélice
Il est illusoire de vouloir dresser un portrait univoque de l’IA médicale.
Dans ce paysage en transformation, la Belgique présente un potentiel stratégique, encore partiellement sous-exploité. Le modèle institutionnel en « quintuple hélice », qui articule universités, structures de soins, acteurs industriels, pouvoirs publics et société civile, fournit un cadre favorable à l’émergence de projets intégrés, capables de conjuguer innovation technologique, validation scientifique et pertinence sociale, ce qui permet également une circulation plus fluide des savoirs et des compétences entre les secteurs, condition nécessaire à une appropriation cohérente des outils d’IA.
Les médecins belges témoignent, dans leur grande majorité, d’un intérêt croissant pour ces technologies, nourri par des formations locales et une culture académique favorable à l’innovation. Toutefois, cet engouement se heurte à un problème de fond : une part significative des solutions actuellement disponibles ne répond pas aux critères de qualité requis pour une adoption clinique rigoureuse. Les jeux de données sont souvent incomplets, les algorithmes peu transparents, les performances exagérées dans les publications promotionnelles. L’écart entre le potentiel revendiqué des systèmes d’IA et leur utilité effective dans les pratiques cliniques génère une forme de dissonance, qui freine leur intégration.

Double problème de Cassandre
Une interprétation possible de ce décalage est possible via le prisme du « double problème de Cassandre » : le premier volet de celui-ci étant que ceux qui identifient les limites structurelles des dispositifs d’IA, notamment les cliniciens formés à l’évaluation critique des outils, peinent à faire entendre leurs alertes dans un contexte dominé par le discours technophile. Le deuxième volet du problème de Cassandre est que même si certaines IA peuvent être très bonnes, leur implémentation inadéquate dans le plan clinique fait que les résultats escomptés peuvent ne pas être observés.
Un autre point mérite d’être explicitement traité : l’idée que l’IA pourrait, à terme, remplacer les soignants. Cette hypothèse, parfois relayée par certains discours économiques ou technologiques, repose sur une méconnaissance profonde de la nature du soin. La relation clinique, les processus de décision partagée, les compétences d’empathie, d’interprétation et de contextualisation échappent en grande partie aux systèmes computationnels. Il est donc nécessaire de rappeler, sans ambiguïté, que l’IA n’a pas vocation à substituer le jugement médical, mais à le compléter. Prétendre l’inverse revient à réduire la médecine à une procédure algorithmique, ce qui constitue une erreur à la fois scientifique et éthique.

Se donner les moyens
L’engouement pour l’IA se manifeste également chez les patients, les décideurs hospitaliers et les industriels. Dans un système de santé fragilisé par des contraintes structurelles, pénurie de personnel, allongement des délais d’attente, fragmentation des parcours, l’IA est parfois perçue comme un levier de transformation systémique. Les attentes générées par cette perception peuvent être irréalistes, voire contre-productives. Il est impératif de clarifier ce que l’IA peut apporter de manière concrète, et ce qu’elle ne peut résoudre. Toute tentative de projeter sur l’IA des fonctions de palliatif aux déficiences structurelles du système de santé risque d’entraîner des déceptions, voire une défiance durable.
Par ailleurs, le recours croissant des citoyens à des dispositifs d’IA non médicaux comme des applications d’autodiagnostic, des plateformes conversationnelles généralistes, ou des moteurs de recherche à visée symptomatique, modifie silencieusement les représentations du soin. Souvent sous-estimée, cette évolution soulève des questions fondamentales en termes de sécurité, de fiabilité de l’information et de relation au savoir médical. Une politique de santé numérique cohérente devrait intégrer des programmes d’éducation à l’IA, destinés à doter les usagers d’outils critiques leur permettant d’interpréter, d’utiliser et de remettre en question les résultats produits par ces technologies.
Sur le plan réglementaire, l’entrée en vigueur de l’AI Act européen constitue un tournant. Elle introduit des exigences précises en matière de transparence, d’explicabilité, d’évaluation des risques et de documentation technique pour les systèmes d’IA à haut risque, dont les applications médicales font partie. Mais l’ensemble des acteurs concernés (professionnels de santé, hôpitaux, administrations, entreprises) souffre actuellement d’un manque de compétences adaptées pour répondre aux obligations de ce texte. Le renforcement de l’expertise réglementaire et l’organisation de dispositifs d’accompagnement sont désormais des priorités opérationnelles.
Toute technologie médicale doit être envisagée dans une perspective élargie, qui dépasse la seule efficacité clinique. L’IA ne se contente pas de transformer les modalités du soin : elle modifie aussi les équilibres symboliques, les régimes de responsabilité, les formes de subjectivité et les conditions de l’action collective.

Elle n’est pas neutre, ni dans ses effets, ni dans sa conception. Penser l’IA en médecine implique donc de prendre en compte l’impact sociétal de son déploiement, ainsi que les logiques industrielles, politiques et culturelles qui la sous-tendent.

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.