Avec la progression de l'IA dans la santé, l'Europe doit renforcer ses garde-fous (OMS)

Le recours aux outils d'intelligence artificielle dans la santé progresse rapidement en Europe mais manque de filets de sécurité juridiques nécessaires pour protéger les patients et les soignants, a estimé la branche Europe de l'Organisation mondiale de la santé (OMS) dans un rapport publié mercredi.

Cette conclusion est issue du premier rapport réalisé par l'OMS Europe sur l'adoption et la régulation de l'IA dans le domaine de la santé. Les réponses de 50 des 53 pays membres de la région Europe, qui inclut des pays d'Asie centrale, ont été prises en compte dans cette analyse. Seuls quatre pays (8%) ont adopté une stratégie nationale d'IA pour la santé et sept autres sont en train de le faire, selon le rapport.
"Nous sommes à la croisée des chemins", estime la directrice des systèmes de santé à l'OMS/Europe, Natasha Azzopardi-Muscat, citée dans un communiqué. "Soit l'IA sera utilisée pour améliorer la santé et le bien-être des personnes, réduire la charge qui pèse sur nos professionnels de santé épuisés et faire baisser les coûts des soins de santé, soit elle pourrait nuire à la sécurité des patients, compromettre la vie privée et renforcer les inégalités en matière de soins."
Le diagnostic assisté par l'IA se distingue comme l'application la plus courante, près des deux tiers des États membres utilisant l'IA pour améliorer l'imagerie et la détection. Les robots conversationnels destinés à aider les patients sont également largement utilisés, la moitié des États membres déclarant les avoir intégrés dans leurs soins.
Toutefois, l'usage de l'IA comporte des risques, notamment de résultats biaisés ou de mauvaise qualité, l'érosion des compétences des cliniciens, la réduction des interactions entre praticiens et patients et des résultats inéquitables pour les populations marginalisées, énumère l'organisme.
Or, la réglementation peine à suivre le rythme d'adoption des technologies, poursuit l'OMS Europe. "Sans normes juridiques claires, les professionnels peuvent hésiter à se fier aux outils d'IA et les patients peuvent ne disposer d'aucun recours clair en cas de problème", souligne David Novillo Ortiz, conseiller en matière de données, d'intelligence artificielle et de santé numérique pour la région.
L'OMS Europe demande donc aux pays de clarifier les responsabilités, de mettre en place des systèmes d'indemnisation et de s'assurer que les outils IA "sont testés en termes de sécurité, d'équité et d'efficacité" avant d'être mis en place.

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.