Catelijne Muller, la présidente du groupe d’étude permanent du Comité économique et social européen (CESE) sur l’intelligence artificielle (IA), a appelé les Européens à se saisir du sujet, jeudi 7 juin 2018.
Mme Muller s’exprimait en amont du sommet pour une stratégie européenne pour l’IA, qui sera organisé par le CESE le 18 juin 2018.
Selon elle, les Européens ne doivent pas baisser les bras face aux deux leaders actuels de l’IA que sont les États-Unis - « focalisés sur les investissements » - et la Chine - tenante d’une « conception bien particulière de la vie privée ».
« Nous sommes plus de 500 millions de citoyens au cœur d’un marché unique : nos décisions comptent ! », a tenu à rappeler la Néerlandaise, pour laquelle le retard pris en termes d’investissement dans l’IA n’a rien d’indépassable.
Pour la représentante du CESE, l’UE doit aussi être à la pointe en termes de régulation des nouveaux outils technologiques, en s’appuyant sur ses valeurs et les libertés fondamentales qu’elle garantit. Elle a notamment cité le règlement sur la protection des données personnelles (GDPR) comme l’exemple d’un texte contraignant, « de portée mondiale ».
Mme Muller, ancienne avocate, a cité deux concepts juridiques qu’elle voudrait voir figurer dans les textes.
Le degré de risque permettrait ainsi de confier la prise de décision à l’homme ou à la machine. En cas de risque élevé, la décision devrait être prise par l’homme, éventuellement aidé par la machine.
A contrario, la machine pourrait prendre la décision, mais pas sans qu’un homme soit capable d’expliquer son ‘raisonnement’, ce qui rejoint l’exigence de l’homme ‘aux commandes’, le second concept cité par la présidente du groupe d’étude du CESE.
Elle a enfin jugé absurde l’idée de responsabilité pénale des machines. « Il y a toujours une personne physique à poursuivre », a indiqué la Néerlandaise.
Mme Muller avait publié le 1er juin 2017 une synthèse des nouveaux défis liés à l’arrivée de l’intelligence artificielle. Ce document de travail a servi de base à la stratégie esquissée par la Commission, dans une communication du 25 avril 2018 (EUROPE 12009).
« Les pistes que j’ai évoquées ont été prises en compte à presque 100 % par la Commission », s’est réjouie la représentante du CESE.
La Commission devrait publier des lignes directrices sur l’éthique en matière d’IA début 2019. (Mathieu Solal, stage)