ChatGPT diagnosticeert spoedpatiënten "zo goed" als arts (onderzoek)

Op de spoedeisende hulp stelde de chatbot ChatGPT met kunstmatige intelligentie minstens zo goed diagnoses als artsen en overtrof hij hen in soms zelfs, zo stelden Nederlandse onderzoekers vast. Die beweren dat AI een "revolutie op medisch gebied" teweeg kan brengen. Enige beperkingen niet te na gesproken...

De auteurs van de woensdag gepubliceerde studie onderstreepten echter dat de dagen van artsen op de spoedeisende hulp nog niet geteld zijn, omdat de chatbot mogelijk in staat is om diagnoses te versnellen, maar niet om het oordeel en de ervaring van een mens te vervangen. 

Dertig gevallen die in 2022 op een spoedeisende hulpafdeling in Nederland werden behandeld, werden onderzocht door ChatGPT te voeden met patiëntgeschiedenissen, laboratoriumtests en observaties van artsen, waarbij de chatbot werd gevraagd om vijf mogelijke diagnoses voor te stellen.

In 87% van de gevallen werd de juiste diagnose gevonden in de lijst van behandelaars, vergeleken met 97% voor versie 3.5 van ChatGPT. 

De chatbot "was in staat om medische diagnoses te stellen op ongeveer dezelfde manier als een menselijke arts zou hebben gedaan", vatte Hidde ten Berg, van de spoedeisende hulp van het Jeroen Bosch ziekenhuis in het zuiden van Nederland, het onderzoek samen op het EUSEM-congres in Barcelona.  Hij vertelde het congres: "Zoals veel mensen hebben we ChatGPT uitgeprobeerd en we waren geïntrigeerd om te zien hoe goed het werkte bij onderzoek van een aantal complexe diagnostische gevallen. Dus hebben we een onderzoek opgezet om te beoordelen hoe goed de chatbot werkte in vergelijking met artsen met een verzameling spoed-casussen uit de dagelijkse praktijk."

Co-auteur Steef Kurstjens benadrukte dat de studie niet concludeerde dat computers op een dag spoedeisende hulpafdelingen kunnen leiden, maar dat AI een belangrijke rol kan spelen bij het helpen van artsen die onder druk staan. 

De chatbot "kan helpen bij het stellen van een diagnose en kan misschien ideeën opperen waar de dokter niet aan had gedacht", vertelde hij AFP. 

Beperkingen

Dergelijke hulpmiddelen zijn echter niet ontworpen als medische apparaten, merkte hij op, en hij deelde ook zorgen over de vertrouwelijkheid van gevoelige medische gegevens in een chatbot. 

En net als op andere gebieden is ChatGPT op bepaalde beperkingen gestuit. 

Zijn redenering was "soms medisch ongeloofwaardig of inconsistent, wat kan leiden tot foutieve informatie of een verkeerde diagnose, met belangrijke implicaties", merkt de studie op. 

De wetenschappers geven ook toe dat hun onderzoek bepaalde tekortkomingen had, zoals de kleine steekproefgrootte. 

Daarnaast werden alleen relatief eenvoudige gevallen onderzocht, waarbij patiënten één hoofdklacht presenteerden. De effectiviteit van de chatbot in complexe gevallen is onduidelijk.

Soms gaf ChatGPT niet de juiste diagnose binnen de vijf mogelijkheden, legt Kurstjens uit, vooral in het geval van een abdominaal aorta-aneurysma, een potentieel fatale complicatie met een gezwollen aorta. 

Maar, troost voor ChatGPT, in dit geval zat de arts er ook naast. 

Het rapport vermeldt verder enkele medische 'blunders' van de chatbot, zoals de diagnose van anemie bij een patiënt met een normaal hemoglobinegehalte.

De resultaten van het onderzoek, gepubliceerd in het vaktijdschrift Annals of Emergency Medicine, zullen worden gepresenteerd op het 2023 European Congress of Emergency Medicine (EUSEM) in Barcelona.

U wil op dit artikel reageren ?

Toegang tot alle functionaliteiten is gereserveerd voor professionele zorgverleners.

Indien u een professionele zorgverlener bent, dient u zich aan te melden of u gratis te registreren om volledige toegang te krijgen tot deze inhoud.
Bent u journalist of wenst u ons te informeren, schrijf ons dan op redactie@rmnet.be.

Laatste reacties

  • Dirk Van Renterghem

    14 september 2023

    Correct voorafgaandelijk een patientgeschiedenid samenstellen, daarin het relevante van het niet relevante onderscheiden correct observeren ( ? Pulserende abdominale massa): dat is de basis vd goede diagnostiek en is niet zo vanzelfsprekend als hier gesuggereerd... patienten met slechts 1 probleem zij een minderheid...