Les corapporteurs du Parlement européen pour la législation sur l’intelligence artificielle ont discuté, mercredi 11 janvier, des amendements de compromis. Les échanges ont notamment porté sur l’inclusion d’une évaluation de l’impact sur les droits fondamentaux pour les systèmes d’IA qualifiés 'à haut risque'.
Cette évaluation reposerait sur des notions telles que la portée géographique, les risques spécifiques pour certains groupes d’individus, l’impact environnemental ou encore la conformité du règlement avec les textes législatifs européens et nationaux existants. Les utilisateurs devraient également réaliser un plan détaillé sur la manière dont les risques pesant sur les droits fondamentaux peuvent être évités.
La question des obligations pour les utilisateurs de systèmes d’IA à haut risque a aussi fait partie des discussions. Sur ce volet, la dernière version du texte de compromis indique que les utilisateurs de systèmes à haut risque devront informer le fournisseur ou le distributeur du système d’IA et l’autorité nationale compétente lorsqu’ils estiment qu’il existe un risque pour la santé, la sécurité ou le respect des droits fondamentaux.
Par ailleurs, la version du texte sur laquelle les eurodéputés ont basé leur discussion précise aussi que les utilisateurs d’un système d’IA à haut risque devraient obtenir l’accord des salariés avant sa mise en place sur un lieu de travail.
Toujours au chapitre des obligations, les co-rapporteurs ont également abordé le fait que les différents intermédiaires - distributeurs, importateurs, utilisateurs - seraient considérés comme des fournisseurs et soumis ainsi aux mêmes règles qu’eux lorsqu’ils modifient, par exemple, l’objectif initial d’un système d’IA impliquant un haut risque. (Thomas Mangin)