La Commission européenne s'oriente bel et bien vers de nouvelles obligations pour les systèmes d'intelligence artificielle à haut risque. Selon une version datée du 21 janvier du projet de livre blanc sur l'intelligence artificielle (IA), vue par EUROPE, elle abandonne par contre son idée d'un moratoire temporaire sur les systèmes de reconnaissance faciale.
Un cadre « pas excessivement prescriptif »
La nouvelle mouture s'inspire de celle de décembre, déjà dévoilée par la presse (EUROPE 12406/8). Cette fois, la Commission ne parle plus d'obligations spécifiques pour les administrations publiques ni de moratoire pour les systèmes de reconnaissance faciale. Elle creuse par contre l'imposition de critères obligatoires pour les applications à haut risque, qu'elle définit comme des applications qui figurent sur une liste de secteurs clés (santé, transport, police et judiciaire) et dont l'usage pose un risque élevé (EUROPE 12413/6).
« Le cadre horizontal pour l’IA ne doit pas être excessivement prescriptif afin de ne pas créer une charge administrative disproportionnée, en particulier pour les PME », ajoute cette fois le texte, qui se concentre sur les besoins de financement en matière de recherche et développement et de garde-fous pour les applications à haut risque.
Le texte final sera publié le 19 février, en même temps qu'une stratégie sur les données et qu'un rapport sur les implications plus larges de l’IA, de l’Internet des objets et des autres technologies numériques pour le cadre en matière de sécurité et de responsabilité. Il doit servir de base pour une consultation publique.
Focus sur les applications à haut risque
Au gré des 20 pages de texte, la Commission souligne qu'il n'est pas nécessaire de révolutionner les règles européennes au regard du développement de l'intelligence artificielle. Mais elle estime que certaines adaptations pourraient s'avérer utiles, tandis que des obligations spécifiques doivent être prévues pour les applications à haut risque.
Ces critères, qui devront être respectés par les développeurs et les utilisateurs professionnels de l’IA de tous les pays du monde, pourraient s’attaquer aux données, à la traçabilité et au contrôle humain à travers une procédure de conformité contrôlée par les autorités publiques dans l’UE à travers les options suivantes : des obligations de qualité et de traçabilité des données, des obligations de transparence et de contrôle humain ainsi que des critères spécifiques pour les systèmes d'identification biométrique à distance.
Ces critères doivent servir pour des évaluations ex ante et ex post, en fonction du niveau de risque des applications (pour les applications à haut risque, il faut des évaluations de conformité ex ante par le biais d'audits indépendants et des évaluations par des centres de test de l’algorithme et des données). Lorsqu’une évaluation de conformité ex ante n’est pas possible, la Commission envisage une obligation de mise à l'épreuve des algorithmes en Europe. Pour les applications à plus bas risques, elle estime qu'une simple évaluation ex post pourrait être suffisante après une violation présumée ou un abus.
La reconnaissance faciale n'est plus interdite
Dans la mouture de décembre, la Commission européenne envisageait d'interdire pour une durée de 3 à 5 ans les systèmes de reconnaissance faciale, tout en laissant entendre qu'il ne s'agissait peut-être pas nécessairement de l'option la plus appropriée. Le texte, daté du 21 janvier, ne parle plus du tout de moratoire. Il souligne que l’implication pour les droits fondamentaux varie considérablement selon l’objectif, le contexte et le champ d’application et qu'il convient plutôt d’établir des orientations pour définir un traitement. « En cas de surveillance de masse, il doit y avoir des critères clairs sur lesquels les individus doivent être identifiés », indique le texte, ajoutant plus loin que, selon l’utilisation du système et le niveau de risque, il doit y avoir certains critères de précision.
À noter que la Commission n'abandonne pas l'idée d'un système volontaire d'étiquetage pour une intelligence artificielle éthique en guise d'alternative ou de complément aux critères obligatoires. Même chose pour la gouvernance, puisque la Commission suggère aussi une structure de gouvernance européenne reposant sur des autorités nationales. Elle envisage par ailleurs un comité permanent d’experts qui fournirait une assistance à la Commission. (Sophie Petitjean)