La Clinique Saint-Luc Bouge a adopté une charte encadrant le développement et l’utilisation éthique de l’intelligence artificielle (IA) au sein de l’institution, annonce l’hôpital dans un communiqué. Approuvé par le Conseil d’administration, ce document s’applique à l’ensemble des collaborateurs recourant à des outils d’IA dans leurs activités professionnelles.
L’initiative vise à répondre aux enjeux éthiques, juridiques et organisationnels liés à une technologie désormais largement utilisée dans les hôpitaux. « Je m’intéresse à l’IA depuis ses débuts. J’ai suivi une formation en ligne où des réflexions ont eu lieu par rapport à la façon de créer une charte pour encadrer l’IA en entreprise. C’est sur cette base que j’ai lancé notre Déléguée à la Protection des Données, Perrine Goderniaux, et notre Attachée aux Affaires juridiques, Claudine Paie, pour qu’elles établissent un projet », explique Adrien Dufour, directeur général de la Clinique Saint-Luc Bouge. Le texte a ensuite été affiné avant d’être validé par l’organe d’administration.
La charte s’inscrit dans le cadre réglementaire européen existant. « L’Union européenne encadre l’IA depuis août 2024 avec l’IA Act. L’une des obligations qui en ressort est que, depuis février 2025, on doit former les collaborateurs à l’IA », rappelle Perrine Goderniaux. L’objectif était, selon la déléguée à la protection des données, de proposer « un document pragmatique, compréhensible de toutes et tous, pour attirer l’attention sur les risques et les opportunités de l’IA et guider son utilisation dans le respect de principes clairs ».
Cette politique est également articulée au plan stratégique de la clinique, baptisé Harmonie. « Nous sommes attentifs à ce que l’IA soit utilisée de façon responsable et encadrée, dans le respect des droits fondamentaux des personnes concernées. Par ailleurs, l’outil doit être respectueux de l’environnement et servir, entre autres, à des innovations environnementales », commente Adrien Dufour.
La protection des données à caractère personnel constitue l’un des piliers de la charte, en cohérence avec le RGPD. « Si nos collaborateurs utilisent un outil visant à prévenir le risque de réadmission pour insuffisance cardiaque, ils ne vont évidemment pas y intégrer des antécédents psychiatriques de patients. Il faut être cohérent avec la finalité de l’outil et n’y insérer que les données strictement nécessaires », illustre Perrine Goderniaux.
Le principe de non-discrimination figure également parmi les exigences. « Il convient de veiller à ce que des groupes de personnes ne soient pas exclus. Par exemple, dans la détection des risques de cancer de la peau, l’outil doit être valable tant pour les peaux claires que pour les peaux foncées », souligne Claudine Paie.
La charte insiste par ailleurs sur la transparence et sur le rôle central de l’humain. Un manuel d’utilisation doit permettre de comprendre le fonctionnement des systèmes d’IA et les données mobilisées, tandis que les résultats doivent rester explicables. « L’IA se doit d’être au service de l’humain et non de le remplacer. Il est essentiel de conserver un esprit critique et de vérifier ce que la machine produit », observe Adrien Dufour, qui appelle aussi à un réexamen régulier des outils et de leurs performances.
L’adoption de la charte constitue une première étape. Des formations à l’IA sont prévues pour le personnel depuis le début de l’année, tandis que des vidéos de sensibilisation, abordant notamment les fondamentaux de l’intelligence artificielle, seront mises à disposition sur l’intranet de la clinique et sur son site internet à destination des patients.







