login
login
Image header Agence Europe
Bulletin Quotidien Europe N° 12538
Sommaire Publication complète Par article 13 / 26
POLITIQUES SECTORIELLES / NumÉrique

La Commission publie une étude d'impact initiale sur l'intelligence artificielle

La Commission européenne a identifié quatre voies possibles pour encadrer juridiquement les aspects éthiques de l'intelligence artificielle, allant du statu quo à des critères contraignants pour toutes les applications. Son analyse d'impact initiale, publiée jeudi 23 juillet, peut-être commentée jusqu'au 10 septembre 2020.

« Étant donné que les outils de l'intelligence artificielle peuvent être utilisés pour exécuter des fonctions qui, auparavant, ne pouvaient être exécutées que par des humains ou pas du tout, il est nécessaire de définir des exigences spécifiques visant à prévenir et/ou à atténuer les résultats négatifs prévus ou involontaires », fait observer la Commission dans son document. 

Cette analyse d'impact initiale fait suite au livre blanc de février (ouvert à consultation publique jusqu'en juin) dans lequel la Commission se prononçait en faveur d'une approche fondée sur le risque (EUROPE 12429/5). Elle sera complétée par une étude d'impact plus fouillée, qui devrait être finalisée en décembre 2020. 

Quatre options sur la table

La Commission européenne met sur la table quatre options distinctes, sur base de l'article 114 TFUE, auxquelles raccrocher sa proposition de règlement sur l'intelligence artificielle. Elle se retient toutefois d'afficher sa préférence.

Outre le statu quo (option 0), ces options sont graduelles : l'option 1 correspond à l'approche souple, non législative, destinée à faciliter et stimuler l'intervention menée par l'industrie.

L'option 2 propose, comme le livre blanc, l'introduction d'un système d'étiquetage volontaire attestant que l'application répond à un certain nombre de critères et qu'elle est digne de confiance.

L'option 3 suggère l'introduction de critères européens obligatoires ayant trait notamment aux données de formation, à la tenue de registres pour les jeux de données et les algorithmes, à l'information à fournir, à la robustesse et l'exactitude et au contrôle humain. L'étude d'impact initiale envisage ici 3 sous-scénarios en fonction des applications qui seraient concernées par ces critères. Ils pourraient en effet être, et c'est la première sous-option, limités à certaines catégories d'applications, comme les systèmes d'identification biométrique à distance (ex. la reconnaissance faciale). Il pourrait être opportun, note la Commission, de prévoir des dispositions liées aux circonstances et des sauvegardes communes pour l'identification biométrique uniquement. Les deux autres sous-options suggèrent soit de limiter ces critères aux seules applications à haut risque (identifiables en fonction du secteur et de l'utilisation ou d'autres critères), soit à toutes les applications d'IA. 

Enfin, l'option 4 repose sur une combinaison des options précitées, en tenant compte des niveaux de risque. 

À noter que le document insiste sur l'importance de la mise en œuvre, via des mécanismes ex ante et/ou ex post, à travers des procédures d'évaluation de conformité/sécurité, comme cela est prévu dans la législation sur la sécurité des produits. (Sophie Petitjean)

Sommaire

REPÈRES
RÉPONSE EUROPÉENNE À LA COVID-19
ACTION EXTÉRIEURE
POLITIQUES SECTORIELLES
ÉCONOMIE - FINANCES - ENTREPRISES
CONSEIL DE L'EUROPE
BRÈVES