Les membres des commissions du Marché intérieur et de la protection des consommateurs ('IMCO') et des Libertés civiles, de la justice et des affaires intérieures ('LIBE) du Parlement européen se prononcent jeudi 11 mai sur le rapport relatif à la législation sur l'intelligence artificielle ('AI Act') (EUROPE 13172/12). Majorité au PE, futures négociations interinstitutionnelles et ChatGPT, le corapporteur du dossier, Dragoș Tudorache (Renew Europe, roumain), fait le point avec EUROPE. (Propos recueillis par Thomas Mangin)
Agence Europe - Le vote en commission du Parlement a lieu ce jeudi 11 mai. Pensez-vous être allé le plus loin possible dans la recherche d’un équilibre entre les groupes politiques ?
Dragoș Tudorache - Je pense que c'est un bon équilibre, oui. Le parfait est l'ennemi du bien, dit le proverbe. Chaque groupe politique voulait probablement quelque chose de différent, ou de plus, mon groupe politique y compris. Lorsque nous avons commencé il y a un an, nous avions plus de 3 000 amendements, allant dans presque toutes les directions. Il n'a pas été facile d'arriver à un accord commun. Encore une fois, tout n'est pas parfaitement aligné sur ce que tout autre groupe politique, ou moi-même, voulions au départ. Mais c'est un paquet avec lequel nous pouvons tous vivre et, d'une certaine manière, cela permet à tous les groupes politiques de se retrouver idéologiquement dans ce qu'ils veulent réaliser.
D'un point de vue purement politique, pensez-vous que le texte sera soutenu par une large majorité ?
Je pense que le vote en commission sera serré sur un point : la question de la reconnaissance biométrique et des espaces publics, qui a été dès le départ, et le reste, un point très idéologique. Pour le reste, je pense, il y aura une majorité confortable.
Le vote du Parlement en séance plénière devrait avoir lieu en juin. Les trilogues débuteront ensuite avec des positions très éloignées, sur fond d'une technologie en constante évolution. Un accord 'rapide' est-il vraiment possible ?
Je suis convaincu que nous pouvons trouver un accord d'ici la fin de l'année. La Présidence du Conseil de l'UE partage cet optimisme et cet engagement à travailler dur et à terminer avant la fin de l'année. Cela doit être fait avant la fin de ce mandat. Nous ne pouvons pas nous permettre de repartir de zéro en 2024. Oui, il y a des points sur lesquels le Conseil est dans un coin de la pièce et le Parlement dans un autre. C'est ainsi que fonctionnent les processus de l'UE. Il y aura quatre ou cinq grandes batailles que nous devrons mener, mais je reste optimiste. Concernant l'évolution de l'environnement, beaucoup de gens se demandent comment on peut réglementer une technologie qui évolue si rapidement. Ma réponse est qu'il existe de nombreuses législations en vigueur vieilles de plus de 100 ans. C'est la raison pour laquelle nous avons créé cette comitologie : lorsque des adaptations seront nécessaires, elles pourront être effectuées rapidement, avec l'aide d'experts, pour que la législation reste en phase.
Beaucoup de changements sont intervenus en fin de négociations. À quoi cela est-il dû ?
Nous avons négocié jusqu'au bout sur les sujets les plus importants. Les points que nous avons clôturés à la fin sont ceux qui ont fait l'objet des débats les plus animés, comme l'article cinq sur les pratiques interdites, l’article six relatif à la classification des systèmes à haut risque, l'IA à usage général, l'IA générative, comme ChatGPT. Nous nous sommes battus jusqu'au bout pour trouver un accord. Maintenant, nous l’avons.
À quel point l’émergence de ChatGPT vous a-t-elle justement poussé à revoir votre copie ?
À la question de savoir si c'est ChatGPT et le fait que l'attention du public ait soudainement explosé sur ce sujet qui nous ont poussés à faire quelque chose, ma réponse est ‘pas vraiment’. Dès l'année dernière, au Parlement, nous étions convaincus que nous devrions faire quelque chose sur ce type de systèmes d'IA. Le Conseil l’envisageait également, mais il a finalement décidé de ne rien faire. Certains, à gauche par exemple, voulaient des règles plus strictes. D’autres, plus à droite, voulaient avoir le moins d’obligations possible pour l’IA à usage général. Notre approche en tant que corapporteurs, Brando Benifei (S&D, italien) et moi-même, était tout d'abord de reconnaître le fait que l'on ne peut pas mettre l’IA à usage général dans des catégories de risques qui se trouvaient déjà dans le règlement.
C'est pourquoi vous avez créé un régime spécial pour ce type de systèmes ?
La logique même du fonctionnement des catégories de risque veut que l'on examine l'utilisation réelle et que ce soit l'utilisation de la technologie qui la rende à haut risque, à faible risque ou interdite. Dans le cas de ChatGPT, on ne peut pas dire que le traitement d'un texte soit risqué, mais il faut faire attention aux droits d'auteur. Le classer dans une catégorie, par exemple à haut risque, ou dans une autre catégorie n'aurait pas été conforme à la manière dont l'ensemble du texte a été construit. C'est donc effectivement pourquoi nous nous sommes rendu compte qu'il fallait concevoir un régime spécial qui reconnaisse les caractéristiques des systèmes à usage général.
Certains eurodéputés ont estimé que l’IA générative aurait mérité une proposition législative à part entière (EUROPE 13168/12). Quelle est votre position ?
Je pense qu'il est beaucoup trop tôt pour cela. Je ne pense pas que nous en sachions assez pour travailler sur une réglementation dédiée à l'IA générative. Je pense que ce que nous avons fait maintenant avec le régime spécial prévu dans le texte, c'est le bon équilibre concernant la réglementation des éléments essentiels de la responsabilité des développeurs de l'IA générative. Nous avons également créé un lien entre ces éléments et la législation sur le droit d'auteur. Et je pense que, si le temps démontre qu'il existe d'autres manifestations ou utilisations de l'IA générative ou d'autres effets de l'IA générative qui mériteraient d'être davantage réglementés, nous pourrons alors y réfléchir. Mais pour l'instant, je pense que ce que nous faisons est juste.