Le groupe d'experts indépendant sur l'intelligence artificielle poursuit sa mission. Après avoir publié, en avril, ses lignes directrices sur les questions éthiques, il a lancé, mercredi 26 juin, une phase de pilotage destinée à évaluer la liste de critères, mise à disposition des entreprises. Il a également publié ses recommandations de politique et d'investissement à l'attention de la Commission et des États membres.
Comme détaillé dans nos colonnes en début de semaine, celles-ci plaident pour une gouvernance de l'IA basée sur les risques, comprenant une cartographie complète des lois européennes pertinentes (EUROPE 12281/13). « Nous sommes d'accord quant à l'idée qu'il ne faut pas une régulation prématurée qui risque de stopper l'innovation. C'est pour cela que nous avons proposé cette approche [par étapes : NDLR] », a réagi la commissaire chargée de l'Économie et la Société numériques, Mariya Gabriel, en salle de presse.
Les lignes rouges du groupe d'experts
Dans son document d'une cinquantaine de pages, le groupe de travail s'oppose à la surveillance de masse ou marketing, aux armes létales et à un système de notes destiné à évaluer les citoyens. Ce groupe - qui rassemble des ingénieurs, des philosophes, des juristes, des industriels et un syndicaliste - souligne que l'intelligence artificielle doit être au service de la santé et la sécurité des travailleurs uniquement pour remplacer les tâches dangereuses. Il propose également d'obliger ceux qui déploient les systèmes d’IA à développer un système d'auto-identification afin que les utilisateurs soient informés du fait qu'ils ne sont pas en train d'interagir avec un humain.
Lignes directrices sur la dimension éthique
Ces recommandations viennent s'ajouter à un 'premier délivrable', comme l'appellent les experts : les lignes directrices sur la dimension éthique de l'intelligence artificielle. Ces lignes directrices, publiées le 8 avril, établissent des principes clés pour une IA digne de confiance, donnent des orientations aux concepteurs et fournissent une liste d'évaluation 'concrète et non exhaustive' pour parvenir à cette confiance (EUROPE 12228/9, 12231/10).
C'est sur ce troisième volet - la liste d'évaluation - que portera l'exercice de pilotage qui vient d'être lancé. Andrea Renda, chercheur au Centre for European Policy Studies (CEPS) et membre du groupe d'experts a précisé que ce processus s'articulerait autour de deux volets : l'un se présente sous la forme d'un questionnaire ouvert à tous, publié ce jour, l'autre correspond à une analyse en détails, les experts du groupe de haut niveau projetant de se surpasser pour analyser, au cours d'une journée et dans différents secteurs, la pertinence de ces critères.
« Je vous invite à y participer, car, après, nous mènerons une analyse pour décider quel critère d'évaluation doit rester, être renforcé ou modifié afin de refléter autant que possible la réalité », a indiqué la commissaire lors de l'assemblée de l'Alliance pour l'IA.
Réactions
Globalement, les réactions au travail du groupe d'experts ont été plutôt positives. L'industrie de la technologie numérique DigitalEurope a laissé entendre qu'elle n'était pas d'accord sur toutes les recommandations, mais s'est félicitée du processus de travail « inclusif et agile » retenu pour aborder ces questions. L'association des opérateurs historiques (télécommunications) ETNO a estimé que ces recommandations définissaient le bon degré d'ambition, se félicitant tout particulièrement de l'approche basée sur le risque et l'exercice de cartographie recommandés par les experts.
Thiébaut Weber, qui participait au groupe d'experts au nom de la Confédération européenne des syndicats (CES) a déclaré : « Ce rapport contient des recommandations claires pour que l’IA soit au service de l’humain, y compris au travail. (...) La balle est dans le camp de la Commission européenne, des États, mais aussi des employeurs et des syndicats pour s’emparer de ces solutions ». (Sophie Petitjean)