L’analyse souligne que, malgré une multiplication des applications d’IA dans des domaines tels que l’imagerie, l’aide à la décision ou l’automatisation administrative, les cadres de validation et de suivi restent insuffisamment développés. De nombreux outils sont ainsi introduits dans les environnements de soins sans évaluation systématique de leur impact en conditions réelles.
Les auteurs observent également une hétérogénéité importante entre institutions et pays en matière de supervision, avec des responsabilités souvent mal définies entre développeurs, autorités réglementaires et professionnels de santé. Cette absence de standardisation complique l’intégration des solutions dans les parcours de soins et limite leur adoption à grande échelle.
« Le principal obstacle n’est plus technologique mais organisationnel », relèvent les chercheurs, qui appellent à structurer des modèles de gouvernance capables d’encadrer l’usage de l’IA tout au long de son cycle de vie, depuis le développement jusqu’au suivi post-déploiement.
L’étude insiste enfin sur la nécessité d’impliquer davantage les cliniciens , afin de garantir la pertinence des outils et leur acceptabilité sur le terrain. Elle recommande la mise en place de procédures d’évaluation continue, incluant des indicateurs de performance clinique, de sécurité et d’équité.
Ces résultats confirment que, si l’intelligence artificielle poursuit son expansion dans le secteur de la santé, son intégration effective dépend désormais moins de ses performances que de la capacité des systèmes à en organiser un usage sûr, transparent et contrôlé.







