L'IA apprend à identifier et atténuer les biais de données

L’Icahn School of Medicine at Mount Sinai à New York annonce la mise au point d’un nouvel outil, baptisé AEquity, destiné à détecter et corriger les biais présents dans les ensembles de données utilisés pour entraîner des algorithmes d’intelligence artificielle en santé. L’étude a été publiée dans le Journal of Medical Internet Research.

Les chercheurs expliquent que ces biais, liés notamment à des caractéristiques socio-économiques ou démographiques, risquent de fausser les résultats des systèmes d’IA et de générer des inégalités dans les soins. « Notre objectif était de créer un outil pratique qui aide développeurs et systèmes de santé à repérer l’existence de biais dans leurs données — puis à les atténuer », souligne le Dr Faris Gulamali, premier auteur de l’étude.

Conçu pour analyser différents types de données — imagerie médicale, dossiers patients, bases de santé publique — AEquity peut identifier aussi bien des biais déjà connus que d’autres passés inaperçus. L’outil a été testé sur plusieurs algorithmes, allant de modèles classiques à ceux qui sous-tendent les grands modèles de langage. Dans les essais menés à Mount Sinai, l’outil a permis de corriger des incohérences dans des cohortes de patients atteints d’insuffisance cardiaque ou de maladies chroniques, améliorant ainsi la précision des prédictions cliniques.

« Des outils comme AEquity sont une étape importante vers des systèmes d’IA plus équitables, mais ils ne suffisent pas », déclare le Pr Girish Nadkarni, directeur du Windreich Department of Artificial Intelligence and Human Health et Chief AI Officer du Mount Sinai Health System. « Pour que ces technologies servent réellement tous les patients, les avancées techniques doivent s’accompagner d’évolutions dans la manière de collecter, d’interpréter et d’utiliser les données. »

Selon le Dr David L. Reich, Chief Clinical Officer du Mount Sinai Health System et président du Mount Sinai Hospital, « identifier et corriger les biais intrinsèques au niveau des jeux de données, c’est traiter le problème à la source, avant qu’il n’affecte les soins ».

Le projet a été mené par une équipe interdisciplinaire de cliniciens, data scientists et éthiciens, avec un financement du National Center for Advancing Translational Sciences et des National Institutes of Health.

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.