Le Conseil de l’UE a adopté, mardi 6 décembre, à l'occasion d'un conseil 'Télécommunications', sa position (‘orientation générale’) en vue des futures négociations interinstitutionnelles sur la législation sur l’intelligence artificielle (IA) (EUROPE 13055/2).
« Aujourd'hui, nous avons réussi à atteindre un équilibre délicat, qui stimulera l'innovation et l'adoption de la technologie de l'intelligence artificielle dans toute l'Europe. Avec tous les avantages qu'elle présente, d'une part, et le plein respect des droits fondamentaux de nos citoyens, d'autre part », a estimé le vice-premier ministre tchèque chargé de la Numérisation, Ivan Bartoš.
Outre la définition des systèmes d’IA, restreinte par le Conseil de l’UE aux systèmes développés par des approches d'apprentissage automatique et des approches basées sur la logique et la connaissance, le texte revient également sur les pratiques interdites en matière d’intelligence artificielle.
Sur ce volet, l’orientation générale du Conseil prévoit que la notation sociale soit interdite. Cette disposition a été étendue aux acteurs privés. La disposition visant à interdire l'utilisation des systèmes d'IA exploitant les vulnérabilités d'un groupe spécifique de personnes a été étendue aux personnes vulnérables en raison de leur situation sociale ou économique.
Sujet au cœur des discussions depuis le début des travaux sur l’IA, le texte n'interdit pas, mais définit, en revanche, des raisons et objectifs qui pourraient légitimer le recours 'exceptionnel' à des systèmes d’identification biométrique à distance en temps réel dans l’espace public.
Exclusion de la sécurité nationale, de la défense et des objectifs militaires
Autre point central lors des discussions - tant au Parlement qu’au Conseil -, le texte revient aussi sur les systèmes d’IA à haut risque. Le Conseil de l’UE prévoit que les systèmes d'IA qui ne sont pas « susceptibles de causer de graves violations des droits fondamentaux » ou d'autres risques importants ne soient pas concernés.
Plusieurs exigences relatives à ces systèmes à haut risque ont été clarifiées, notamment sur la qualité des données ou la documentation technique que les PME doivent établir pour démontrer que leurs systèmes d'IA à haut risque sont conformes aux exigences.
En outre, le texte précise désormais que les exigences relatives aux systèmes d'IA à haut risque s'appliquent également aux systèmes d'IA à usage général dans les cas où ces derniers sont intégrés à des systèmes à haut risque. Cependant, sur ce point, le Conseil de l’UE préfère qu’un acte d’exécution vienne spécifier la manière dont elles doivent être appliquées, sur base d'une consultation et d'une analyse d'impact détaillée.
Le texte comprend également une référence à l'exclusion de la sécurité nationale, de la défense et des objectifs militaires du champ d'application de la législation sur l’IA. Cette dernière ne devrait pas non plus s’appliquer aux systèmes d'IA et à leurs résultats utilisés dans le seul but de la recherche et du développement.
Une autre modification a également été apportée pour spécifier que les entités publiques seront, elles aussi, obligées de s’enregistrer dans la base de données de l’UE lorsqu’elles utilisent des systèmes d’IA à haut risque.
Des inquiétudes sur la reconnaissance à distance
Dans la foulée de l’annonce de l’adoption de sa position par le Conseil de l’UE, certains, à l’instar de l’eurodéputé allemand Patrick Breyer (Verts/ALE), ont fait part de leurs inquiétudes concernant certaines dispositions du texte adopté par le Conseil de l’UE, notamment la reconnaissance biométrique.
« Nous devons défendre une société de confiance et de droits et non une société de suspicion et de division. La surveillance de masse n'a pas sa place dans notre société et nous nous battrons pour son interdiction au Parlement européen », a-t-il déclaré.
Par ailleurs, plusieurs associations se sont aussi fendues d’un communiqué, regrettant parfois, à l’instar du Bureau européen des unions de consommateurs (BEUC), l’adoption « d'une position décevante », laissant « de trop nombreuses questions importantes en suspens, comme la reconnaissance faciale par des entreprises privées dans des lieux accessibles au public ».
« Il est crucial que le Parlement défende les consommateurs lorsqu'il adoptera sa position sur la loi sur l'IA au cours de la nouvelle année. Dans le cas contraire, cette législation pourrait finir par être une désillusion », a commenté la directrice générale adjointe du BEUC, Ursula Pachl. (Thomas Mangin)