Petra De Sutter, die vorig jaar verkozen werd als nieuwe rector van de UGent, heeft bij het opstellen van haar openingsspeech in september generatieve AI gebruikt. Dat hebben journalisten van Apache ontdekt. De software die De Sutter gebruikte, 'hallucineerde' bepaalde informatie, wat leidde tot foute citaten van onder meer Albert Einstein. De universiteit heeft de fouten intussen erkend en aangepast.
"Dogma is the enemy of progress" of "Kennis beschrijft en beheerst de werkelijkheid; wijsheid zoekt naar antwoorden op existentiële vragen - en is verbonden met cultuur en ethiek": het zijn maar enkele voorbeelden van citaten die in de speech van De Sutter voorkwamen. Het eerste werd toegeschreven aan de Duitse natuurkundige Albert Einstein, het tweede aan psycholoog Paul Verhaeghe.
Na de rede merkten enkele collega's aan de UGent echter op dat de tekst van de rector fouten bevatte. De citaten bleken hallucinaties, een gekend probleem waarbij informatie door AI verzonnen wordt. De fouten werden door De Sutter zelf echter niet gespot en kwamen toch in de finale versie van de speech terecht.
De UGent voerde na die opmerkingen een eerste keer correcties door in de transcriptie van de toespraak die op de website werd gepubliceerd. Die correctie bevatte echter eveneens fouten. Pas na bijkomende vragen van de redactie van Apache werd een disclaimer toegevoegd.
Opvallend is dat De Sutter in haar openingsrede zelf nog naar de gevaren van AI verwees. Zo waarschuwde ze dat we de output van AI-tools "niet blind mogen vertrouwen" en dat door AI-gegenereerde teksten "niet altijd makkelijk te onderscheiden zijn van originele werken". Maar ook: "Het is de gebruiker van een AI-tool die verantwoordelijk is voor de output, ook wanneer deze foute of misleidende informatie genereert."
Dat blijkt bijvoorbeeld ook uit het examenreglement van de UGent. Studenten die betrapt worden op het gebruik van AI, terwijl dat niet toegelaten is, riskeren zware sancties. Die kunnen variëren van een 0/20 op het voorliggende opleidingsonderdeel, tot een verbod om deel te nemen aan de herexamens en zelfs - in ernstige gevallen - een uitsluiting van de universiteit.
Daarover hoeft de rector zelf zich in ieder geval geen zorgen te maken. De Commissie voor Wetenschappelijke Integriteit van de UGent heeft op dit moment nog geen klachten ontvangen. Bovendien lijken de spelregels rond het gebruik van kunstmatige intelligentie in academische kringen nog volop in ontwikkeling te zijn en verschillen ze naargelang de context waarin AI-tools aangewend worden.
"Een openingsrede is niet hetzelfde als een academische paper", laat de UGent in een reactie aan Belga weten. Dat bevestigt ook Bert Seghers, expert wetenschappelijke integriteit. "Bij de toepassing van AI in wetenschappelijke bijdragen gelden verschillende verwachtingen: transparant zijn over het gebruik ervan, het opnemen van verantwoordelijkheid voor je werk en het corrigeren van eventuele fouten. Maar een paper is niet noodzakelijk hetzelfde als een toespraak."
Dat De Sutter een voorbeeldrol heeft, kan Seghers evenwel niet ontkennen. "De rector is het gezicht van de universiteit en is in die rol ook de bewaker van de academische integriteit aan de hoger onderwijsinstelling. Vanuit dat perspectief wordt haar optreden onvermijdelijk wat scherper beoordeeld en getoetst aan de normen die de UGent zelf hanteert voor haar eigen studenten."
Ook de UGent bevestigt dat ze zowel van medewerkers als van studenten verwacht dat ze "kritisch blijven kijken naar de output" van generatieve AI.
In een reactie aan Belga liet De Sutter eerder vandaag (donderdag) al weten dat ze betreurt dat ze "in de val gelopen" is en dat ze de ervaring zal gebruiken om het debat rond het gebruik van AI verder aan te zwengelen.







