AI-gegenereerde beelden houden vooroordelen in stand

Afbeeldingen die werden gegenereerd met behulp van artificiële intelligentie versterken raciale stereotypen en houden zo vooroordelen in stand. Dat blijkt uit een onderzoek van het Instituut voor Tropische Geneeskunde (ITG) en de Universiteit van Oxford, gepubliceerd in The Lancet Global Health.

De onderzoekers daagden AI uit om nieuwe beelden te genereren die racistische stereotypen in de internationale gezondheidssector moesten weerleggen. Het programma faalde echter. "We moeten daarom AI-modellen trainen op een representatieve dataset, zodanig de werkelijkheid correcter weer te geven", klinkt het.

Zwarte Afrikaanse artsen

Concreet vroegen de wetenschappers aan AI-tool Midjourney Bot (5.1) om afbeeldingen te maken met zwarte Afrikaanse artsen die witte kinderen behandelen. "Ondanks de eenvoudige opdracht slaagde de bot er niet in", weet antropoloog Koen Peeters (ITG). "Na 300 pogingen hadden de patiënten nog altijd een donkere in plaats van een lichte huidskleur. Bovendien bevatten de resultaten overdreven en cultureel aanstootgevende Afrikaanse elementen zoals giraffen, olifanten en karikaturale kleding." 

De communicatie van internationale gezondheidsorganisaties en ngo's toont Afrikanen nog te vaak als afhankelijk van een 'witte redder', concluderen de onderzoekers in The Lancet. "Het doel was om de stereotypen te doorbreken met AI, de resultaten hadden het tegenovergestelde effect. Ze hielden vooroordelen in stand en gaven geen gevoel van moderniteit." 

AI-ontwikkelaars zouden dan ook kritisch moeten kijken naar de datasets die ze gebruiken om modellen te trainen. Daarnaast zou bijvoorbeeld de wereldgezondheidsgemeenschap zich bewust moeten zijn van de vooroordelen in AI-gegeneerde beelden. Het gebruik van AI-gegenereerde beelden is immers wijdverspreid, ook in rapporten of promotiemateriaal van de Wereldgezondheidsorganisatie. 

De onderzoekers stellen tot slot dat dergelijke beelden machtsonevenwichten in stand houden, stereotypen versterken en gemeenschappen verkeerd weergeven. "Onze studie suggereert opnieuw dat beelden ons denken vormgeven", besluit Peeters. "Racisme, seksisme en kolonialisme zijn ingebedde processen die zich manifesteren in alledaagse scenario's, waaronder AI. Deze studie dient als een wake-upcall."

 

U wil op dit artikel reageren ?

Toegang tot alle functionaliteiten is gereserveerd voor professionele zorgverleners.

Indien u een professionele zorgverlener bent, dient u zich aan te melden of u gratis te registreren om volledige toegang te krijgen tot deze inhoud.
Bent u journalist of wenst u ons te informeren, schrijf ons dan op redactie@rmnet.be.