De Icahn School of Medicine at Mount Sinai in New York kondigt de ontwikkeling aan van een nieuw instrument, genaamd AEquity, dat bedoeld is om vooroordelen op te sporen en te corrigeren in datasets die worden gebruikt om algoritmen voor artificiële intelligentie in de gezondheidszorg te trainen. De studie is gepubliceerd in het Journal of Medical Internet Research.
De onderzoekers leggen uit dat deze vooroordelen, die met name verband houden met sociaaleconomische of demografische kenmerken, de resultaten van artificiële intelligentie-systemen kunnen vertekenen en tot ongelijkheid in de zorg kunnen leiden. “Ons doel was om een praktisch hulpmiddel te creëren dat ontwikkelaars en gezondheidszorgsystemen helpt om vooringenomenheid in hun gegevens op te sporen en vervolgens te verminderen”, benadrukt dr. Faris Gulamali, eerste auteur van de studie.
AEquity is ontworpen om verschillende soorten gegevens te analyseren – medische beeldvorming, patiëntendossiers, volksgezondheidsdatabases – en kan zowel bekende als onopgemerkte vooroordelen identificeren. Het hulpmiddel is getest op verschillende algoritmen, variërend van klassieke modellen tot modellen die ten grondslag liggen aan grote taalmodellen. In de tests die zijn uitgevoerd in Mount Sinai heeft het hulpmiddel inconsistenties in cohorten van patiënten met hartfalen of chronische ziekten gecorrigeerd, waardoor de nauwkeurigheid van klinische voorspellingen is verbeterd.
“Tools zoals AEquity zijn een belangrijke stap in de richting van eerlijkere AI-systemen, maar ze zijn niet voldoende”, zegt prof. Girish Nadkarni, directeur van het Windreich Department of Artificial Intelligence and Human Health en Chief AI Officer van het Mount Sinai Health System. “Om ervoor te zorgen dat deze technologieën echt alle patiënten ten goede komen, moet technische vooruitgang gepaard gaan met veranderingen in de manier waarop gegevens worden verzameld, geïnterpreteerd en gebruikt.”
Volgens dr. David L. Reich, Chief Clinical Officer van het Mount Sinai Health System en voorzitter van het Mount Sinai Hospital, “betekent het identificeren en corrigeren van intrinsieke vooroordelen in datasets dat het probleem bij de bron wordt aangepakt, voordat het de zorg beïnvloedt”.
Het project werd uitgevoerd door een interdisciplinair team van clinici, datawetenschappers en ethici, met financiering van het National Center for Advancing Translational Sciences en de National Institutes of Health.