Organisé par Unessa et santhea, le colloque “L’IA en santé : progrès technologique, responsabilité humaine” a réuni juristes, chercheurs et acteurs hospitaliers. Les interventions de Philippe Devos et Jean-Marc Van Gyseghem ont rappelé que le progrès technologique ne saurait se substituer à la responsabilité humaine.
« L’intelligence artificielle a transformé la vie de tout le monde, et la santé n’y échappe pas », constate Philippe Devos, directeur général d’Unessa. D’un ton souvent humoristique, il rappelle que la question n’est plus de savoir si l’IA va entrer dans les soins, « mais comment on va évoluer avec elle ».
Pour illustrer la place déjà prise par l’IA en médecine, Philippe Devos évoque une expérience personnelle : l’analyse de son profil génétique par un modèle d’IA, qui a confirmé une prédisposition favorable aux statines. Une démonstration, dit-il, du potentiel de ces outils pour la médecine personnalisée, mais aussi de leurs limites : « Si les données sont mauvaises, les résultats le seront aussi. »
Pour Philippe Devos, la qualité, la sécurité et la gouvernance des données deviennent des conditions cardinales. Un modèle d’IA peut tirer de mauvaises conclusions si les données cliniques qu’on lui fournit sont incomplètes ou biaisées. « Si un algorithme apprend à prescrire des antibiotiques sur base de dossiers où la majorité des médecins se trompent, il reproduira l’erreur », résume-t-il.
L’Europe fixe le cadre
Pour que l’IA devienne un outil durable et sûr, elle doit s’inscrire dans un cadre clair. C’est ce qu’a expliqué le Pr Jean-Marc Van Gyseghem, chercheur au CRIDS (Université de Namur), en présentant l’AI Act, adopté en 2024 et appelé à s’appliquer progressivement dès cette année.
« On ne peut pas se contenter de regarder le bateau partir », prévient-il. Les acteurs de santé doivent « embarquer et agir », en comprenant les règles, le fonctionnement et les limites de ces technologies.
Le texte européen reconnaît que l’IA est « une famille de technologies en évolution rapide » susceptible de produire « des résultats bénéfiques pour la société et les soins de santé », tout en fixant une hiérarchie des risques (inacceptables, élevés, limités, minimes). Les soins figurent dans la catégorie des risques élevés, soumise aux exigences les plus strictes.
La loi en clair
L’AI Act ne remplace pas le RGPD, il le complète. Les institutions de soins devront désormais examiner tout projet d’IA à la lumière des traitements de données. « Les DPO ont déjà pas mal de boulot, et on leur met une couche en plus », sourit le Pr Van Gyseghem, rappelant que la protection des données reste une pierre angulaire du dispositif.
L’AI Act impose en outre une gestion proactive des risques : chaque concepteur ou utilisateur devra les identifier, les évaluer et mettre en place des mesures correctrices. Les institutions et leurs fournisseurs auront l’obligation de réduire au maximum les risques et de s’assurer que leur personnel maîtrise les outils. « Il faut quelqu’un qui comprenne l’IA, capable d’identifier les risques et de mettre en place la procédure de remontée d’information », insiste le juriste.
Autre pilier du texte : la qualité des données. « Il faut s’assurer que l’IA va se nourrir correctement », ajoute-t-il.
Ce que cela change pour les hôpitaux
Le règlement consacre un principe de contrôle humain effectif, assuré « par des personnes physiques disposant des compétences, de la formation et du soutien nécessaires ». Ce contrôle ne peut se limiter à « appuyer sur un bouton on et regarder vite fait » : il vise à prévenir les risques pour les droits fondamentaux.
« L’intelligence artificielle ne remplacera jamais le médecin », conclut Jean-Marc Van Gyseghem, sur une note de prudence. « Elle reste un outil utile et nécessaire, à condition que les institutions en assurent le contrôle et le respect des règles ».
« L’IA n’est pas une baguette magique »
Un constat auquel Philippe Devos souscrit. Il rappelle que l’enjeu n’est pas seulement de respecter la loi : il s’agit aussi de garder la main sur l’usage des outils. « L’IA n’est pas une baguette magique. C’est un instrument dont l’avenir dépend entièrement de la manière dont nous choisissons de l’utiliser. »
Le Dr Devos met en garde contre la tentation d’un rejet trop rigide : refuser certains outils par crainte de la sécurité reviendrait, selon lui, à encourager une prolifération d’« IA grises », c’est-à-dire d’usages non encadrés sur les smartphones des médecins. « Comme les médecins qui finissent par s’envoyer des données par WhatsApp quand on leur ferme les réseaux, vous aurez des IA utilisées sans contrôle. »
Pour éviter cela, il plaide pour la formation et la confiance dans la technologie, mais aussi dans les décisions institutionnelles : « Pour qu’il y ait une adhésion complète du soignant, il faut qu’il comprenne le raisonnement qui conduit l’IA à sa réponse. »
Le médecin invite enfin à un examen de conscience collectif : « Aujourd’hui, quand on passe, sur 20 minutes de consultation, 12 minutes devant son écran et 8 minutes avec le patient, l’humanité, on l’a déjà perdue. » Bien utilisée, estime-t-il, l’intelligence artificielle pourrait au contraire rendre du temps humain : « L’IA, c’est une opportunité pour récupérer cette humanité perdue. »
« Si on l’utilise pour faire des économies et acheter des F-35, j’ai un problème. Si on l’utilise pour retrouver la relation avec le patient, alors je dis : vivement que l’IA soit largement déployée. »
Lire aussi: Le Dr Philippe Devos présente un e-learning sur l’IA en médecine







