Le Conseil et le Parlement européen sont parvenus à un accord politique provisoire, jeudi 7 mai, après neuf heures de négociations lors du troisième trilogue, sur le paquet 'Omnibus IA', visant à simplifier l’application du règlement sur l’intelligence artificielle (AI Act). L’accord introduit une nouvelle interdiction visant à bannir les pratiques de 'nudification' non consentie à la suite du scandale lié à Grok.
Le texte convenu fera désormais l’objet d’une révision juridique et linguistique et devra encore être formellement adopté par les deux colégislateurs avant l´été. Le Parlement européen prévoit de soumettre l’accord au vote lors de sa session plénière de juin.
Report de l’application des exigences applicables aux systèmes d’IA à haut risque. L’accord provisoire introduit de nouvelles dates d’application : - le 2 décembre 2027 pour les systèmes d’IA à haut risque autonomes, tels que ceux utilisés dans les domaines de la biométrie, des infrastructures critiques, de l’éducation, de l’emploi, de la migration, de l’asile et de la gestion des frontières ; - le 2 août 2028 pour les systèmes d’IA à haut risque intégrés dans des produits, tels que les jouets, couverts par la législation sectorielle de l’UE.
En l’absence d’accord, les exigences applicables aux systèmes à haut risque prévues par l’AI Act seraient effectivement entrées en vigueur le 2 août, alors que les normes techniques et les outils de soutien nécessaires ne sont pas encore disponibles sur le marché.
L’accord rétablit également l’obligation pour les fournisseurs d’enregistrer dans la base de données européenne les systèmes d’IA à haut risque qu’ils considèrent comme exemptés de cette classification ainsi que l’exigence de stricte nécessité pour le traitement des catégories particulières de données personnelles afin de garantir la détection et la correction des biais.
Nouvelles interdictions prévues à l’article 5. Les colégislateurs se sont accordés sur une nouvelle disposition de l’article 5 de l’AI Act interdisant les pratiques d’IA générant du contenu sexuel ou intime non consenti représentant des personnes identifiées, ainsi que du matériel d’abus sexuel sur mineurs. Cette disposition sera applicable à partir du 2 décembre prochain.
« L’interdiction relative aux contenus intimes non consentis devrait être limitée aux représentations réalistes des parties intimes, notamment les organes génitaux, la région pubienne, l’anus, les fesses exposées ou les seins féminins exposés, y compris les mamelons ou les aréoles, ainsi qu’aux activités sexuellement explicites », indique le texte convenu dans le considérant, selon des sources consultées par Agence Europe.
L’interdiction couvre les systèmes d’IA mis sur le marché de l’UE dans le but de créer ce type de contenu, leur mise sur le marché sans mesures de sécurité raisonnables pour empêcher une telle création, ainsi que les utilisateurs exploitant ces systèmes à cette fin, a précisé le Parlement européen dans un communiqué de presse.
Les machines exemptées des règles sur l’IA, mais assorties de garanties. Cette disposition répond à une demande clé de l’Allemagne, devenue l’un des principaux points de blocage des négociations : transférer le règlement sur les machines de la section A à la section B de l’annexe I, ce qui exempterait ces produits de l’application des règles de l’AI Act.
« Des garanties seront incluses afin de veiller à ce que les exigences du règlement sur les machines reflètent certaines dispositions de l’AI Act », a appris Agence Europe auprès d’une source officielle européenne directement impliquée dans les négociations.
L’articulation entre les règles de l’AI Act et la législation sectorielle dans des secteurs tels que les dispositifs médicaux, les jouets, les ascenseurs, les machines et les embarcations constituait également un enjeu majeur pour le Parlement européen, qui souhaitait exempter de l’AI Act tous les produits couverts par une législation sectorielle afin d’éviter les chevauchements et de réduire la bureaucratie.
La principale négociatrice du Parlement européen, Arba Kokalari (PPE, suèdoise), a déclaré que le Parlement souhaitait « transférer douze législations vers le droit sectoriel lorsqu’elles comportent des dispositions relatives à l’IA, mais que le Conseil n’a accepté que le règlement sur les machines », jugeant le Conseil moins ambitieux dans la réduction de la charge administrative et des chevauchements réglementaires.
« Cela a été un combat majeur », a-t-elle reconnu, rejetant l’idée qu’il s’agissait d’une concession faite uniquement à l’Allemagne, puisque « de nombreuses entreprises européennes se sont plaintes » de la confusion entourant les règles applicables aux machines.
Les colégislateurs se sont également accordés sur un mécanisme destiné à résoudre les situations dans lesquelles les législations sectorielles comportent des exigences spécifiques à l’IA similaires à celles de l’AI Act, en limitant l’application de ce dernier dans ces cas précis au moyen d’actes d’exécution, a précisé le Conseil dans un communiqué de presse.
La Commission a été habilitée à adopter des actes délégués dans le cadre du règlement sur les machines afin d’ajouter des exigences en matière de santé et de sécurité concernant les systèmes d’IA classés à haut risque au titre de l’AI Act. Cette solution permettrait de traiter efficacement les éventuels chevauchements entre les exigences relatives aux systèmes à haut risque prévues par l’AI Act et celles figurant dans la législation sectorielle.
Les colégislateurs ont fixé des échéances pour les actes délégués modifiant le règlement sur les machines (d’ici le 2 août 2028), la limitation de l’applicabilité des exigences de l’AI Act en cas de chevauchement avec la législation sectorielle (d’ici le 2 août 2027) et les lignes directrices de la Commission sur la complémentarité entre l’AI Act et la législation sectorielle (août 2027), a appris Agence Europe d´une source européenne.
En outre, dans le cadre de l’accord provisoire, la Commission fournira des orientations afin d’aider les opérateurs économiques des systèmes d’IA à haut risque couverts par la législation sectorielle harmonisée à se conformer aux exigences de l’AI Act tout en réduisant la charge administrative.
Sas réglementaires et délais relatifs au marquage numérique. Parmi les autres éléments de l’accord provisoire figurent le report au 2 août 2027 de la date limite pour la mise en place des sas réglementaires nationaux en matière d’IA, ainsi que la réduction de six à trois mois de la période accordée aux fournisseurs pour mettre en œuvre des solutions de transparence concernant les contenus générés artificiellement, la nouvelle échéance étant fixée au 2 décembre prochain.
L’accord reporte l’application des obligations de marquage numérique ('watermarking') pour les systèmes d’IA générant des contenus synthétiques audio, visuels, vidéo ou textuels déjà mis sur le marché avant le 2 août 2026. Ces techniques de marquage permettent de détecter et de tracer les contenus générés par l’IA. Selon des sources européennes, les solutions techniques nécessaires devraient être prêtes d’ici juin.
Compétences de l’AI Office. Les colégislateurs ont également clarifié les compétences de l’AI Office en matière de supervision des systèmes d’IA reposant sur des modèles d’IA à usage général développés par un même fournisseur. À cette fin, l’accord énumère les exemptions pour lesquelles les autorités nationales restent compétentes, notamment dans les domaines de l’application de la loi, de la gestion des frontières, des autorités judiciaires et des institutions financières, a précisé le Conseil. (Ana Pisonero Hernandéz)