Le Conseil de l’Europe a annoncé, mercredi 4 décembre, la mise au point d’un nouvel outil d’évaluation et d’ajustement de l’impact des systèmes d’intelligence artificielle (IA) sur les droits humains.
Baptisée HUDERIA, cette méthodologie peut être utilisée par les acteurs publics et privés pour les aider à recenser et traiter les risques et l’impact des systèmes d’IA tout au long de leur cycle de vie sur la démocratie, l’État de droit et les droits de l’homme.
Elle prévoit un programme d’atténuation, voire de suppression de risques identifiés afin de protéger les citoyens d’éventuels préjudices.
À titre d’exemple, si un système d’IA utilisé dans un processus de recrutement se révèle partial à l’égard de certains groupes démographiques, le programme d’atténuation peut prévoir l’ajustement de l’algorithme ou la mise en place de contrôles humains.
Cette méthodologie exige des réévaluations régulières liées à l’évolution de la situation et de la technologie.
Elle a été adoptée par le Comité sur l’intelligence artificielle du Conseil de l’Europe (CAI) lors de sa plénière organisée du 26 au 28 novembre et sera complétée en 2025 par le modèle HUDERIA, qui fournira des documents et ressources d’appui, notamment des outils flexibles et des recommandations évolutives.
Créé en 2022, le CAI est à l’origine de la Convention-cadre sur l’IA, les droits humains, la démocratie et l’État de droit, ouverte à la signature en septembre dernier et signée par l’UE.
La méthodologie HUDERIA est destinée à soutenir la mise en œuvre de cette Convention-cadre.
Lien vers la méthodologie HUDERIA : https://aeur.eu/f/enn (Véronique Leblanc)