La Commission européenne pourrait bien rester sourde aux appels du précédent Parlement européen visant à créer une personnalité juridique pour les robots. Le rapport qu'elle a commandité à un groupe d'experts et qui doit être officiellement présenté jeudi 9 janvier en commission des affaires juridiques du Parlement européen juge en effet une telle disposition inutile.
L'objectif du groupe d'experts était d'examiner si les régimes de responsabilité actuels « sont adéquats pour faciliter l’adoption de nouvelles technologies en favorisant la stabilité des investissements et la confiance des utilisateurs ». Ce groupe d'experts fait partie d'une des deux formations qui s'occupent de la responsabilité et des nouvelles technologies, mises en place en mars 2019. L'autre formation, dont le travail doit aboutir à des lignes directrices interprétatives de la directive 85/374/CEE, se concentre uniquement sur les produits défectueux.
Pas de personnalité juridique spécifique
Dans son rapport, le groupe d'experts 'nouvelles technologies' conclut que « les régimes de responsabilité en vigueur dans les États membres assurent au moins une protection de base aux victimes de dommages causés par le fonctionnement de ces nouvelles technologies », mais que « certains ajustements pourraient être nécessaires au niveau national ou européen ». En d'autres termes, les experts ne recommandent pas de révolution, seulement des ajustements.
Ainsi, selon eux, il n'est pas nécessaire de créer une personnalité juridique spécifique pour les robots pour faire en sorte, comme le demandait le précédent Parlement européen dans le rapport de Mady Delvaux, qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers (EUROPE 11727/9). « Il n'est pas nécessaire de conférer aux appareils ou aux systèmes autonomes une personnalité juridique, car les dommages que ceux-ci peuvent causer peuvent et doivent être imputables à des personnes ou des organismes existants », notent les experts, pour lesquels derrière chaque robot, il y a un humain (un algorithme reflète nécessairement l'intention du concepteur). Ils ajoutent qu'en cas d'opérateurs multiples, quand la responsabilité risque d'être diluée, il suffit de rechercher qui a le plus de contrôle sur le risque encouru pour identifier la personne responsable.
D'autres adaptations suggérées
Parmi les autres ajustements, les experts suggèrent d'établir une présomption de responsabilité qui joue en faveur de la victime. Ils proposent aussi d'opter pour un renversement de la charge de la preuve, l'imputant au fabricant. Par ailleurs, ils suggèrent la mise en place d'un fonds d'indemnisation, à l'instar de ce qui existe dans la directive concernant l’assurance de la responsabilité civile résultant des voitures, pouvant être utilisé pour protéger les victimes de délits qui ont droit à une indemnisation conformément aux règles de responsabilité applicables, mais dont les demandes ne peuvent être satisfaites. Lien vers le rapport : http://bit.ly/2ZZWiLk (Sophie Petitjean)