Les États membres de l’UE feront le point, mercredi 5 juillet, lors d’une réunion du groupe de travail ‘Télécommunications’, sur la position du Conseil de l’UE concernant l’intelligence artificielle (IA) (EUROPE 13201/1). Ceci permettra notamment à la Présidence espagnole du Conseil de l’UE, dont le mandat a débuté de 1er juillet, de sonder les positions des États membres en vue du prochain volet de négociations interinstitutionnelles (‘trilogue’), qui aura lieu le 18 juillet (EUROPE 13204/27).
La Présidence espagnole du Conseil de l’UE devrait revenir dans un premier temps sur la question de la définition des systèmes d’IA. Sur ce point, le PE a aligné sa définition sur celle de l’OCDE (EUROPE 13155/5). Le Conseil de l’UE n’a gardé que certains éléments de cette dernière. Plusieurs options sont proposées par la Présidence du Conseil de l’UE, notamment se rapprocher de la position du PE, maintenir celle du Conseil de l’UE ou encore attendre les développements futurs et les orientations de l’OCDE sur le sujet.
La question de l'obligation d'effectuer une étude d’impact sur les droits fondamentaux avant la mise sur le marché d’un système d’IA à haut risque, chère à certains membres du PE, devrait aussi être discutée. L’approche du Conseil de l'UE ne comprend pas une telle obligation et s’en tient aux dispositions comprises dans le cadre du Règlement général pour la protection des données (RGPD). Celles-ci prévoient que les entreprises et organisations publiques soient tenues d’examiner si des risques élevés existent pour les droits et les libertés lorsque les données à caractère personnel sont traitées.
Sur ce point, la nouvelle Présidence espagnole du Conseil de l’UE devrait proposer plusieurs pistes aux États membres, notamment la possibilité de se rapprocher du PE tout en supprimant la période de consultation de six semaines demandée par les eurodéputés en amont du lancement d'une étude d’impact.
La question de la classification des systèmes à haut risque, qui avait fait l’objet de vives discussions - tant au PE qu’au Conseil de l’UE - devrait aussi faire partie des aspects soulevés. La position du Conseil de l’UE se concentre sur les résultats des systèmes d’intelligence artificielle lorsqu’il est question de prise de décision, tandis que le PE voudrait obliger les fournisseurs de systèmes d’IA à évaluer les risques que représentent leurs systèmes. Si ces risques ne devaient pas, d’après les entreprises et entités concernées, faire tomber le système développé dans la catégorie de système à haut risque, il reviendrait à l’autorité compétente de trancher.
Plusieurs pistes sont à l’étude par le Conseil de l’UE. L’une d’elles pourrait consister à reprendre la position du PE à son compte, tandis que l’autre privilégierait la conservation de l’approche définie par le Conseil de l’UE lorsqu'il avait arrêté sa position (EUROPE 13078/12). Toutefois, la Présidence espagnole du Conseil de l’UE pourrait aussi proposer de trouver un terrain d’entente, par le biais, par exemple, de règles contraignantes reposant sur de critères de risque clairs que les entreprises devraient évaluer. (Thomas Mangin)