Instaurer un climat de confiance en matière d'intelligence artificielle... sans trop réguler : tel est l'objectif qu'a défendu le commissaire au marché intérieur, Thierry Breton, lundi 10 février, dans l'hémicycle du Parlement européen. Son intervention faisait suite à un débat sollicité par les eurodéputés (question écrite) avant que ceux-ci n'adoptent leur position sur les processus de décision automatisés.
« Je ne connais pas beaucoup de parlements dans le monde où on peut avoir un débat de cette qualité », a déclaré Thierry Breton. « Au-delà de nos différences partisanes, nous avons tous partagé les mêmes interrogations, les mêmes souhaits. Dans cette évolution, ce qu’on partage, c’est la place de l’homme, le respect de nos valeurs, l’intégrité de nos décisions et la compréhension par rapport au phénomène qui nous entoure », a-t-il poursuivi pour clôturer la discussion.
La Commission interpellée avant la présentation de son paquet, le 19 février
L'échange de vues trouvait son origine dans une question écrite rédigée par la commission du marché intérieur (IMCO) qui invitait la Commission à clarifier la manière dont elle comptait protéger les consommateurs européens, en particulier vis-à-vis des pratiques commerciales déloyales ou discriminatoires, du manque de transparence du processus de décision et des biais dans les jeux de données.
Dans sa réponse, Thierry Breton a rappelé que la Commission préparait actuellement son paquet sur une Europe numérisée, à savoir une communication sur les défis à venir (EUROPE 12419/11), une communication sur les données (EUROPE 12418/1) et un livre blanc sur l'intelligence artificielle (EUROPE 12408/19). Tous ces documents doivent être publiés le 19 février. Le livre blanc sur l'IA représente une première réflexion et sera suivi « d’actions au 4e trimestre », a confirmé M. Breton.
Au cours de sa présentation, le commissaire a insisté sur trois éléments : - l'importance de « ne pas trop réguler à la sortie », car « c'est trop tôt » ; - donner au citoyen la liberté de choix afin qu'il ne soit pas prisonnier d'une plateforme ou d'un algorithme ; - la maitrise de nos systèmes d'information et de leur sécurité (juridique, éthique et dans le cyberespace).
La position des eurodéputés sur la prise de décision automatisée
De leur côté, les eurodéputés seront invités, le 12 février, à arrêter leur position sur les processus décisionnels automatisés, une notion qui comprend, mais ne se limite pas à l'intelligence artificielle, a souligné Karen Melchior (Renew Europe, danoise).
Le document, validé à une large majorité en commission du marché intérieur (IMCO), plaide pour une approche basée sur le risque et soulève la question des compétences des autorités de surveillance en ce qui concerne la transparence et l'explicabilité des algorithmes décisionnels (EUROPE 12410/14).
Le groupe Verts/ALE est le seul à avoir introduit des amendements, étant principalement tourné vers la durabilité des systèmes décisionnels. Les Verts/ALE proposent aussi d'opter pour le renversement de la charge de la preuve en cas de défaut de conformité.
Répartition des tâches en commission des affaires juridiques
En marge de la plénière, la commission des affaires juridiques a présenté à la presse, mardi 11 février, les trois rapports qu'elle comptait rédiger sur l'IA : un rapport préparé par Ibán García del Blanco (S&D, espagnol) sur les aspects éthiques de l'IA, de la robotique et des technologies connexes, un rapport sur les régimes de responsabilité civile pour l'IA préparé par Axel Voss (PPE, allemand) et un autre, sur les droits de propriété intellectuelle pour le développement des technologies d'intelligence artificielle, préparé par Stéphane Sejourné (Renew Europe, français).
À noter que, le même jour, le groupe Renew Europe a organisé une conférence de presse pour présenter sa position sur l'IA. Dans un document d'une trentaine de pages, le groupe note, par exemple, que les autorités « devraient éviter d’avoir recours aux technologies de surveillance utilisant l’IA (comme les logiciels de reconnaissance faciale) avant que les résultats des analyses d’impact soient disponibles et, si nécessaire, avant que la législation régissant l’utilisation de ces technologies soit adoptée ». [Projet de résolution : http://bit.ly/2uC2NJ8 ] (Sophie Petitjean, avec Agathe Cherki)