In de VS veranderen AI-chatbots het paradigma van medische consulten

Chatbots op basis van artificiële intelligentie (AI), zoals ChatGPT, worden steeds meer een klinische bondgenoot voor patiënten die snel advies zoeken, bericht de New York Times na een diepgaand onderzoek.

Duizenden gebruikers, van het platteland tot de grote steden, vertrouwen op deze tools om te navigeren tussen dure consulten, postoperatief herstel of bijwerkingen die door zorgverleners over het hoofd worden gezien. Maar een recent klinisch onderzoek waarschuwt: ondanks hun toegankelijkheid geven deze AI's vaak onjuiste antwoorden, wat de noodzaak van strengere regelgeving voor veilig therapeutisch gebruik onderstreept.

Het artikel belicht concrete gevallen: een vrouw uit Wisconsin raadpleegt ChatGPT om dure afspraken te vermijden, een schrijfster in het landelijke Virginia beheert haar herstel na een operatie in afwachting van medische follow-up, en een klinisch psycholoog uit Georgia, Elizabeth Ellis, 76 jaar, krijgt empathische antwoorden over de bijwerkingen van haar behandeling tegen borstkanker, die door haar zorgverleners worden genegeerd.

Massaal gebruik verandert het zorggedrag
Deze getuigenissen laten een groeiende kloof zien: volgens een onderzoek van de Johns Hopkins University gebruikt 40% van de Amerikanen al chatbots voor medische vragen, wat de autonomie van patiënten vergroot, maar het risico met zich meebrengt dat essentiële zorg wordt uitgesteld. Vanuit klinisch oogpunt is de impact tweeledig. Positief is dat deze tools de toegang tot informatie democratiseren, met name in de telegeneeskunde en voor chronische ziekten zoals diabetes of psychische stoornissen. Een meta-analyse uit 2025 in The Lancet Digital Health toont aan dat chatbots het aantal niet-urgente oproepen naar de spoedeisende hulp met 25% verminderen.

Verontrustende klinische beperkingen
Dr. Danielle Bitterman, coauteur van een studie van de Harvard Medical School, wijst echter op systematische onnauwkeurigheden: zelfs wanneer ze zijn getraind op betrouwbare gegevens, geven generatieve modellen tot 30% onjuiste antwoorden in complexe scenario's, zoals de interpretatie van bijwerkingen of zeldzame symptomen.

Naar strengere internationale regelgeving
Als reactie hierop ontstaan er internationale richtlijnen: de Amerikaanse FDA en de WHO bevelen strenge klinische validaties aan voor “therapeutische chatbots”, terwijl in Europa de AI Act deze tools classificeert als “high-risk” op het gebied van gezondheid. Start-ups zoals Woebot, voor digitale geestelijke gezondheid, integreren nu “hand-off”-protocollen naar menselijke clinici. In de Verenigde Staten testen ziekenhuizen zoals de Mayo Clinic hybride versies, waarbij AI en medisch toezicht worden gecombineerd voor een nauwkeurigheid van 85%.

U wil op dit artikel reageren ?

Toegang tot alle functionaliteiten is gereserveerd voor professionele zorgverleners.

Indien u een professionele zorgverlener bent, dient u zich aan te melden of u gratis te registreren om volledige toegang te krijgen tot deze inhoud.
Bent u journalist of wenst u ons te informeren, schrijf ons dan op redactie@rmnet.be.