Samenwerking tussen Explainable AI en de pneumoloog verbetert de interpretatie van het longfunctieonderzoek

Verschillende algoritmes kunnen helpen bij de interpretatie van een longfunctieonderzoek, maar noch de pneumologen noch de algoritmes afgeleid van de richtlijnen van de American Thoracic Society (ATS) en de European Respiratory Society (ERS) zijn voldoende precies voor een correcte lezing.

Het is niet bekend of artificiële intelligentie de pneumoloog kan helpen bij het interpreteren van een longfunctieonderzoek. Bovendien geven de algoritmes van artificiële intelligentie geen uitleg over hun resultaten. Nochtans is het essentieel de redenering te vatten waarop de voorspellingen gebaseerd zijn, vooral als de arts op grond daarvan een therapeutische beslissing wil nemen. Er bestaan nu meerdere methoden die wel uitleg geven, waardoor artificiële intelligentie transparanter wordt. Dat nieuwe paradigma van artificiële intelligentie wordt verklaarbare artificiële intelligentie (XAI, Explainable AI) genoemd.

Een nieuwe studie, waaraan meerdere Belgische specialisten hebben deelgenomen, heeft onderzocht of XAI een meerwaarde biedt bij de interpretatie van een longfunctieonderzoek. De studie is uitgevoerd in twee fase met telkens 24 verslagen van een longfunctieonderzoek met een klinisch gevalideerde diagnose. Fase 1 was een monocentrische studie uitgevoerd bij de pneumologen van de KUL. Fase 2 is uitgevoerd bij 88 pneumologen, van wie er 62 afkomstig waren uit verschillende Europese ziekenhuizen. Fase 2 is pas gestart nadat was vastgesteld dat de primaire eindpunten in fase 1 werden bereikt.

Elk verslag van het longfunctieonderzoek werd geïnterpreteerd zonder (controle) en met de suggesties van XAI (interventie). De pneumologen hebben een differentiaaldiagnose opgesteld met een voorkeursdiagnose en hoogstens 3 andere diagnosen. Het primaire eindpunt was de accuraatheid van de voorkeursdiagnose en de optionele diagnosen in de controlefase en de interventiefase. De auteurs hebben ook onderzocht of XAI invloed had op de beslissingen van de pneumologen.

Tijdens fase 1 steeg de gemiddelde precisie van de voorkeurs- en de optionele diagnosen significant met respectievelijk 10,4% en 9,4% tussen de controle en de interventie (p < 0,001). In fase 2 was de verbetering minder groot, maar toch nog zeer significant (p < 0,0001) (respectievelijk 5,4% en 8,7%).

In de twee fasen is het aantal differentiaaldiagnosen niet gedaald, maar als rekening werd gehouden met de suggesties van XAI, stegen het vertrouwen in de diagnose en de concordantie tussen de pneumologen significant. De pneumologen hebben hun beslissing aangepast volgens de suggesties van XAI, waardoor hun prestaties verbeterd zijn.

Kortom: samenwerking tussen pneumologen en XAI verbetert dus de interpretatie van het longfunctieonderzoek.

  • Das N et al. Collaboration between explainable artificial intelligence and pulmonologists improves the accuracy of pulmonary function test interpretation. European Respiratory Journal 2023 61: 2201720. doi: 10.1183/13993003.01720-2022

U wil op dit artikel reageren ?

Toegang tot alle functionaliteiten is gereserveerd voor professionele zorgverleners.

Indien u een professionele zorgverlener bent, dient u zich aan te melden of u gratis te registreren om volledige toegang te krijgen tot deze inhoud.
Bent u journalist of wenst u ons te informeren, schrijf ons dan op redactie@rmnet.be.