Les États membres ont examiné, vendredi 17 juin, dans le cadre d’une réunion du groupe ‘Télécommunications’ du Conseil de l’UE, la version consolidée du texte de compromis de la Présidence française du Conseil de l’UE (PFUE) concernant les futures règles harmonisées en matière d’intelligence artificielle (EUROPE 12973/34).
Concrètement, le texte met d’abord l’accent sur la reconnaissance biométrique (EUROPE 12950/7). Sur ce point, la PFUE prévoit que la notion d’identification biométrique soit définie de manière « fonctionnelle » et que les systèmes de vérification et d’authentification, dont le seul but serait de confirmer qu'une personne physique est la personne qu'elle prétend être ou d’identifier une personne souhaitant accéder à un service ou des locaux, soient exclus.
« Cette exclusion se justifie par le fait que ces systèmes sont susceptibles d'avoir un impact mineur sur les droits fondamentaux des personnes physiques par rapport aux systèmes d'identification biométrique qui peuvent être utilisés pour le traitement des données biométriques d'un grand nombre de personnes », explique la PFUE.
En outre, le texte précise que « compte tenu des conséquences importantes pour les personnes en cas de concordance incorrecte avec certains systèmes d'identification biométrique », les systèmes concernés devraient être l’objet d’une surveillance humaine renforcée.
Celle-ci permettrait de garantir « qu’aucune action ou décision ne puisse être prise par l'utilisateur sur la base de l'identification résultant du système, à moins que celle-ci n'ait été vérifiée et confirmée séparément par au moins deux personnes physiques », complète le document de compromis.
Les personnes chargées de cette vérification pourraient appartenir à une ou plusieurs entités et inclure la personne qui exploite le système d’IA en question, détaille le document de compromis.
Plus de flexibilité pour les bacs à sable réglementaires
Le texte revient également largement sur la question des bacs à sable réglementaires et donne une flexibilité aux États membres, via la possibilité pour les autorités nationales de créer des bacs à sable réglementaires pour le développement, la formation, les essais et la validation de systèmes d'IA avant leur mise sur le marché ou leur mise en service.
Les bacs à sable réglementaires - qui permettent, par exemple, aux acteurs d’un secteur de tester le service développé sans être obligé de respecter l’ensemble du cadre réglementaire pour une durée limitée - pourraient aussi être supervisés par les autorités nationales compétentes dès lors qu’il s’agirait de systèmes d’IA fournis par les institutions, organes et agences de l’UE.
Le texte revient aussi sur la question des erreurs dans les jeux de données exploités (EUROPE 12928/24). En la matière, la PFUE estime que les ensembles de données devraient être aussi complets et exempts d’erreurs que possible, tout en prenant en considération la faisabilité technique et la disponibilité des données. Des mesures « appropriées » de gestion du risque devraient être envisagées afin de traiter les problèmes d’erreurs au sein des jeux de données.
Enfin, la PFUE a également ajouté, dans cette nouvelle version du texte de compromis, le fait que les systèmes d'IA à haut risque devraient être « conçus et développés » avec des solutions techniques appropriées pour « empêcher ou minimiser les comportements nuisibles ou indésirables », notamment par le biais des mécanismes permettant aux systèmes d'interrompre leur fonctionnement en toute sécurité en présence de certaines anomalies.
Voir le document de compromis : https://aeur.eu/f/2a5 (Thomas Mangin)