AI-bots geven in helft gevallen misleidend medisch advies

Door kunstmatige intelligentie (AI) aangedreven chatbots geven gebruikers in ongeveer de helft van de gevallen problematisch medisch advies. Dat blijkt uit een onderzoek naar de gezondheidsrisico's van door AI gegenereerde adviezen, waarvan de resultaten zijn gepubliceerd in het medische tijdschrift BMJ Open.

Onderzoekers uit de VS, Canada en het VK evalueerden vijf populaire platforms: ChatGPT, Gemini, Meta AI, Grok en DeepSeek. Zij kregen elk tien vragen binnen vijf gezondheidscategorieën. Van alle gegeven antwoorden werd ongeveer de helft als problematisch beoordeeld. Bijna 20 procent daarvan werd zelfs als zeer problematisch bestempeld.
Volgens het onderzoek presteerden de chatbots relatief beter bij gesloten vragen en opdrachten, en bij vragen over vaccins en kanker. Slechter deden ze het bij open vragen en opdrachten, en op gebieden zoals stamcellen en voeding.
De antwoorden werden vaak met veel zelfvertrouwen en stelligheid gepresenteerd, hoewel geen enkele chatbot bij enige vraag of opdracht een volledig complete en accurate referentielijst wist te produceren, aldus de onderzoekers.

U wil op dit artikel reageren ?

Toegang tot alle functionaliteiten is gereserveerd voor professionele zorgverleners.

Indien u een professionele zorgverlener bent, dient u zich aan te melden of u gratis te registreren om volledige toegang te krijgen tot deze inhoud.
Bent u journalist of wenst u ons te informeren, schrijf ons dan op redactie@rmnet.be.