Les 52 experts indépendants convoqués par la Commission européenne ont fini par rendre leur position sur les questions les plus controversées liées à l'intelligence artificielle : ils s'expriment contre la surveillance de masse, les armes létales ou la notation des citoyens.
Telles sont quelques-unes des recommandations de politique et d'investissement que le groupe entend présenter, le 26 juin, lors de la première assemblée de l'Alliance européenne de l'IA, qui réunit quelque 3 000 personnes.
« Un agenda pour la prochaine Commission »
Le projet de texte, publié par le média américain Politico, reprend 33 recommandations à l'adresse de la Commission européenne et des États membres. Il précise et complète un premier document de travail du groupe, les lignes directrices sur la dimension éthique de l'intelligence artificielle (EUROPE 12231/10).
« C'est presque un agenda de travail pour la prochaine Commission », nous confie l'un des experts du groupe, qui souligne qu'un tel exercice n'a pas été une mince affaire. Selon lui, les discussions ont été intenses, parfois longues et ont aussi mené à des confrontations. Il prend ainsi l'exemple de la recommandation, reprise finalement dans le projet de texte, selon laquelle les citoyens qui rencontrent un problème pour accéder à un service public en recourant à l'intelligence artificielle devraient pouvoir être réorientés vers un responsable en chair et en os.
La question de la responsabilité
Le document d'une cinquantaine de pages étudie, d'un côté, comment parvenir à une intelligence artificielle digne de confiance, en s'intéressant à la protection de l'humain, aux secteurs public et privé ainsi qu'à l'intelligence artificielle dans le monde. Et de l'autre, il aborde les principaux éléments facilitateurs de l'IA : l'infrastructure, les compétences, la gouvernance et le financement.
Globalement, il refuse la 'réglementation pour la réglementation' et suggère une approche fondée sur le risque; la notion de risque étant entendue comme un effet défavorable sur l'individu ou la société.
À la différence des lignes directrices d'avril, il tranche les questions les plus sensibles, telles que celle de la responsabilité civile et pénale. Sur la première, il recommande d'envisager, pour les applications mettant en danger la sécurité ou les droits fondamentaux, d'introduire des critères de traçabilité et de suivi. Il précise que les règles de responsabilité civile doivent être en mesure d'assurer une compensation adéquate en cas de blessures et/ou de violations de droits (via une responsabilité stricte ou délictueuse). Celles-ci « pourraient devoir être complétées par des dispositions obligatoires d'assurabilité », précise-t-il. Sur la responsabilité pénale, il appelle à examiner la nécessité d'assurer que la responsabilité pénale puisse être attribuée conformément aux principes fondamentaux du droit pénal.
Surveillance, violence, etc.
Le document aborde notamment la question de la surveillance de masse et la surveillance marketing « alors que les gouvernements peuvent être tentés par des ‘sociétés sécurisées’ à travers des systèmes de surveillance intrusifs basés sur des systèmes d’IA ». Et de poursuivre : la surveillance commerciale des individus (en particulier des consommateurs) et de la société doit être empêchée pour être strictement « en ligne avec les droits fondamentaux comme la confidentialité (aussi lorsque cela concerne des 'services gratuits'), en prenant en considération les effets des modèles d’entreprise alternatifs ».
Le document recommande aussi de contrôler et de restreindre le développement des armes létales autonomes. Il appelle les États membres à proposer à leurs partenaires, dans le cadre des discussions internationales actuelles, d'adopter un moratoire sur le développement des armes létales offensives.
Il propose également que les systèmes d'IA soient auto-identifiés : « Ceux qui déploient les systèmes d’IA devraient être chargés de préciser qu’en réalité, ces systèmes ne sont pas humains », précise le document.
Suivi des lignes directrices éthiques
Outre ces recommandations de politique et d'investissement, le groupe d'experts devrait lancer le processus de pilotage des lignes directrices sur l'éthique, qui se conclura avec la présentation d’un document révisé début 2020. Ce processus de pilotage comprend des études de cas sectoriels, ainsi que des tests, par les entreprises, de la liste des critères d'évaluation. (Sophie Petitjean)