ChatGPT, DALL-E: le Parlement européen veut encadrer l'IA générative

En dégageant jeudi en commissions parlementaires un pré-accord sur la régulation de l'intelligence artificielle, les eurodéputés ont ajouté aux propositions de la Commission des obligations spécifiques pour les modèles génératifs de textes, images et autres, tels que ChatGPT, MidJourney ou DALL-E, un développement nouveau et en évolution rapide dans le domaine de l'"IA".

Les modèles génératifs devraient communiquer le fait que le contenu a été généré par une IA, ont convenu les membres des commissions du marché intérieur et des libertés civiles; la transparence devrait porter aussi sur la conception du modèle, po ur prévenir la génération de contenu illégal, et sur la publication de résumés de données protégées par le droit d'auteur, utilisées pour la formation des algorithmes. Des amendes pouvant aller jusqu'à 10 millions d'euros ou 2% du chiffre d'affaires annuel, y seraient liées.

Ces demandes ont été incluses dans un projet de mandat de négociation (84 voix pour, 7 contre et 12 abstentions) qui doit être soumis à la plénière en juin, en vue d'ouvrir les négociations avec le Conseil (États membres) sur ce qui devrait devenir les premières règles au monde sur l'IA. La Commission avait déposé ses propositions il y a deux ans déjà. Elles n'incluent pas de règles spécifiques pour l'IA générative, pas plus que le mandat de négociation que le Conseil a adopté en décembre dernier.

"Nous sommes sur le point de mettre en place une législation historique qui doit résister au défi du temps", a souligné le co-rapporteur Brando Benefei (S&D). Pour son collègue Dragos Tudorache (Renew), "la législation sur l'IA est très probablement la mesure législative la plus importante de ce mandat. C'est la première législation au monde de ce type, ce qui signifie que l'UE peut montrer la voie en orientant l'IA pour qu'elle soit centrée sur l'humain, sûre et digne de confiance."

L'idée générale est d'établir des obligations pour les fournisseurs et utilisateurs en fonction du niveau de risque que l'IA peut générer. Les systèmes d'IA présentant un niveau de risque "inacceptable" seront strictement interdits. On parle ici de systèmes qui déploient des techniques subliminales ou délibérément manipulatrices, exploitent les vulnérabilités des personnes ou sont utilisés pour la notation sociale (classer les personnes en fonction de leur comportement social, de leur statut socio-économique, de leurs caractéristiques personnelles). Ou encore de la reconnaissance faciale (systèmes d'identification biométrique à dis tance "en temps réel") dans les espaces accessibles au public. L'exemple chinois sert de repoussoir.

Pour autant, les élus veulent aussi soutenir l'innovation, via des exemptions pour les activités de recherche et les composants d'IA fournis dans le cadre de licences open source. La nouvelle législation promeut les "bacs à sable réglementaires", des environnements contrôlés, établis par les autorités publiques, où les systèmes d'IA peuvent être testés avant leur déploiement.

Les députés souhaitent aussi soutenir le droit des citoyens à porter plainte contre des systèmes d'IA ou recevoir des explications. Ils veulent aussi revoir le rôle de l'Office européen de l'IA, qui sera chargé de contrôler la mise en œuvre du règlement sur l'intelligence artificielle.

Le bureau européen des organisations de consommateurs (BEUC) s'est réjoui de cette première étape parlementaire. "Les consommateurs peuvent pousser un ouf de soulagement, après la proposition décevante de la Commission et le mandat de négociation que les États membres ont adopté", a déclaré la vice-directrice Ursula Pachl.

Elle souligne notamment le droit du consommateur d'être informé quand il fait l'objet d'une décision prise par un système IA à haut risque, comme ce pourrait être le cas lorsqu'il contracte un emprunt ou une police d'assurance, ou quand il se joint à une action collective en réparation.

D'une grande complexité technique, les systèmes d'intelligence artificielle fascinent autant qu'ils inquiètent. S'ils peuvent sauver des vies en permettant un bond en avant des diagnostics médicaux, ils sont aussi exploités par des régimes autoritaires pour exercer une surveillance de masse des citoyens.

Le grand public a découvert leur potentiel immense à la fin de l'année dernière avec la sortie du générateur de contenus rédactionnels ChatGPT de la société californienne OpenAI, qui peut rédiger des dissertations originales, des poèmes ou des traductions en quelques secondes. Mais la diffusion sur les réseaux sociaux de fausses images, plus vraies que nature, créées à partir d'applications comme Midjourney, a alerté sur les risques de manipulation de l'opinion.

Des personnalités scientifiques ont même réclamé un moratoire sur le développement des systèmes les plus puissants, en attendant qu'ils soient mieux encadrés par la loi.

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.