Algoritmefouten, een aanvaardbaar risico in de gezondheidszorg? (dr. Sam Ward en mr. Karolien Haese)

Binnen Building Healthcare for Tomorrow (BHCT) werd het debat gelanceerd naar aanleiding van de publicatie met sprekende titel: “NHS, computerfout bij borstkankerscreening kortte mogelijk leven in van 270 vrouwen”.

Om een steriel debat te vermijden omtrent de vraag: “Moeten we bang zijn voor artificiële intelligentie (AI)?”, hebben juristen de vraag omgedraaid. “Hoeveel vrouwen zouden, zonder dit algoritme, een herinnering gekregen hebben?” En bovendien: met welke foutenmarge?

Het foutenrisico van een computer is een klassiek aangehaald argument om innovatie tegen te gaan. Een dergelijk argument werkt contraproductief. Het is moeilijk te aanvaarden dat bestuur en artsen het behoud van persoonlijke controle op de computer blijven inroepen terwijl het nulrisico niet bestaat en de meerwaarde van de computer in een groot aantal gevallen een evidentie is. 

Het NHS-artikel start niet vanuit de vraag van de geleverde meerwaarde, gebaseerd op een automatische herinnering voor een specifieke patiëntendoelgroep. Maar wel, zoals gewoonlijk, vanuit de negatieve insteek van de bestuursverantwoordelijkheid (hier de NHS).

Kwestie van verantwoordelijkheid 

Dat verbaast niet vermits -zeker in de gezondheidszorg- de verantwoordelijkheidskwestie artsen en bestuurders angst aanjaagt. Het is ondenkbaar om patiënten een berekend risico te laten lopen en om die reden verkiest de arts de illusie de controle op de computer te behouden.

Om terug te komen op het NHS-voorbeeld: de juiste juridische vraag zoekt naar de persoonlijke verantwoordelijkheid bij het programmeren of gebruik een van algoritme. Het gaat dus over een menselijke fout en dit zal steeds het geval blijven zolang AI niet in staat is tot vergevorderde deep learning. Mocht het zover komen, dan kan de mensheid enkel hopen dat ze de beslissingsmacht kan behouden over het al dan niet gebruiken van de machine. 

Het debat heeft wel de verdienste dat het de illusie verjaagt van een nulrisico bij computergebruik. Als het nulrisico niet bestaat, moeten wij dan toegeven dat efficiëntie en de digitale superioriteit de machine vrijstelt van een bijkomende controle door de arts of de bestuurder om het foutenrisico alsnog te verminderen?

Het antwoord is niet vanzelfsprekend. Het hangt het voornamelijk af van de middelen die de bestuurder hiervoor kan inzetten.

Zijn die middelen beperkt, dan moeten we keuzes maken. Keuzes die bepaald zullen worden door de gewenste outcome, zowel voor de bestuurder die een economische evenwicht tracht te behouden als voor de arts of patiënt om zich gerust te stellen over diagnose en behandeling.

Bij die keuzes rijzen zowel ethische vragen als vragen over de sociale verantwoordelijkheid van de verschillende actoren. 

Als de machine in staat is om de financiële en professionele druk van bestuurders  en artsen te verlichten met een minimale risicofactor, zijn dan nog bijkomende middelen nodig om te trachten aan de illusie van het nulrisico te geraken?

Het antwoord verschilt tussen bestuurders en artsen, gewoonweg omdat deze laatsten geconfronteerd zijn met een emotionele en menselijke last terwijl de bestuurder moet waken over het algemene evenwicht van het hele systeem.

Gekaapt vliegtuig neerhalen?

Het doet denken aan de uiterst moeilijke keuze over het neerhalen van een gekaapt vliegtuig in volle vlucht om het risico op een crash in het centrum van een grootstad te  vermijden. Om een parallel te trekken met de gezondheidszorg: moet je aandringen op terugbetaling van dure medicatie voor zeldzame aandoeningen of de middelen besteden aan een veel groter aantal patiënten? Het klassieke antwoord dat de artsen en patiënten formuleren: aan beide, is natuurlijk geen optie omdat de middelen altijd beperkt zullen zijn.  

Uiteindelijk zal de verantwoordelijkheid berusten bij de bestuurder die de middelen verdeelt op basis van economische en sociale efficiëntie. Het zijn beslissingen waar collectief belang primeert op het individuele belang, verdedigd door de arts.

Deze keuze blijft echter moeilijk te verwerken voor sommige artsen die een meer persoonlijke relatie met hun patiënten hebben, een relatie die zij soms jarenlang opbouwden. De perceptie van verantwoordelijkheid wordt dan ook als eigen/individueel ervaren.  

Individuele en collectieve intelligentie 

Hoe kunnen individuele keuzes van de arts verzoend worden met de meer collectieve keuzes van de bestuurders? Het antwoord ligt waarschijnlijk in het goede gebruik van de Big Data & AI waar zowel een individuele als een collectieve intelligentie in het spel is wegens de analysemogelijkheden van de machine.  

Een dergelijke intelligentie veronderstelt echter dat databanken voldoende en adequaat voorzien werden van gegevens. Dat om de basisberekeningen niet te vertekenen, om zo via grote datahoeveelheden een automatische screeningsampagne en behandeling op maat voor de patiënten op te zetten. Borstkankerscreening door de meest pertinente doelgroep vast te leggen (collectieve intelligentie) moet tegelijk aangevuld worden met een tailormade behandeling die de arts met behulp van de machine op basis van miljoenen gegevens kan waarmaken (individuele intelligentie) 

Een eerste belangrijke stap lijkt, in die zin, het bevorderen van overdracht en gebruik van geanonimiseerde persoonlijke gegevens, eerder dan het afremmen ervan. Dat met het oog op het perfectioneren van deze efficiëntie tool.

U wil op dit artikel reageren ?

Toegang tot alle functionaliteiten is gereserveerd voor professionele zorgverleners.

Indien u een professionele zorgverlener bent, dient u zich aan te melden of u gratis te registreren om volledige toegang te krijgen tot deze inhoud.
Bent u journalist of wenst u ons te informeren, schrijf ons dan op redactie@rmnet.be.