L'IA dans les soins de santé présente plusieurs risques pour les patients (CSNPH)

L'utilisation de l'intelligence artificielle (IA) dans le secteur des soins de santé présente plusieurs risques pour les patients. Il manque également un cadre juridique solide pour les protéger suffisamment, ressort-il d'une note du Conseil supérieur national des personnes handicapées (CSNPH) publiée jeudi.

Tout d'abord, le CSNPH rappelle que la relation de soin doit rester "un lien d'humain à humain". Si, pour l'instant, le recours à l'IA reste sous la responsabilité du médecin, il existe un risque que ce recours devienne une norme, ajoute le Conseil. 
Afin de ne pas mettre à mal la relation de confiance entre le patient et son prestataire de soin, et de garantir une information correcte, le CSNPH plaide pour la mise en place de mécanismes de validation centralisés des IA médicales et de tests de biais obligatoires. Ces derniers doivent permettre de s'assurer que la programmation de l'IA n'est pas de nature à discriminer certains types de patients. L'organe recommande aussi l'élaboration d'une charte déontologique. 
Sur le plan technique ensuite, le CSNPH évoque l'importance de la qualité méthodologique du développement des systèmes d'IA. Le Conseil insiste sur l'importance de la diversité des échantillons utilisés pour entraîner l'IA et sur la transparence au niveau des méthodes. Il est également nécessaire de former les prestataires de soins afin de garantir un bon usage de ces nouvelles technologies. 
Par ailleurs, le rapport se penche sur la question de la gestion des données des patients. L'Espace Européen des données de santé, en instaurant le partage sans limite des données médicales à l'échelle européenne, balaie le droit à consentir des patients, estime le Conseil. À l'issue de son analyse, le CSNPH estime d'ailleurs qu'il est nécessaire de compléter l'AI-Act de l'Union européenne en y intégrant des contraintes adaptées au secteur de la santé.

Interrogé par numerikare, le Pr Giovanni Briganti (UMons) estime que « les préoccupations soulevées par le Conseil supérieur national des personnes handicapées rejoignent des enjeux que nous identifions quotidiennement dans nos travaux à la Chaire IA et Médecine Digitale ».

Il rappelle que « la qualité méthodologique du développement des systèmes d’IA médicale, la rigueur dans la validation clinique, et la formation des professionnels de santé à ces outils sont des conditions non négociables de leur déploiement responsable ».

Selon lui, « le plaidoyer pour des tests de biais obligatoires et pour la diversité des jeux de données d’entraînement est particulièrement bienvenu, il traduit en recommandation institutionnelle ce que la littérature scientifique démontre depuis plusieurs années ». Il ajoute que « sur la question du cadre juridique, il faut toutefois veiller à ce que l’exigence légitime de protection ne conduise pas à un excès qui freinerait l’innovation thérapeutique en Europe : l’enjeu est de construire un cadre proportionné, qui protège effectivement les patients tout en permettant aux cliniciens et aux chercheurs de développer des outils susceptibles d’améliorer la prise en charge ».

> Lire la note du CSNPH

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.