Première à tenter de réguler l’intelligence artificielle, et première à revenir en arrière ? Selon Politico, mardi 23 septembre, l’Union européenne se préparerait à reporter l’application de l’AI Act, le règlement européen sur l’IA. Même si le scénario a été battu en brèche par un responsable de la Commission européenne vingt-quatre heures plus tôt, le doute subsiste. Selon nos confrères, même ceux qui défendent fermement l’application normale de la loi européenne envisageraient désormais, en privé, « un certain retard » dans l’application du règlement européen.
En pratique, les entreprises développant des IA à haut risque pourraient avoir un an de plus que prévu pour se conformer à l’AI Act, écrit Politico. Cette éventualité a mis vent debout une partie des défenseurs des droits numériques : une trentaine d’associations comme European Digital Rights (EDRi) ou AccessNow ont repris la plume mardi 23 septembre, après avoir fait de même en juillet dernier.
Dans une lettre adressée à la Commissaire européenne en charge des nouvelles technologies, ces organisations demandent que l’AI Act soit appliqué comme prévu. Ces dernières regrettent le « cercle vicieux de retards » alimenté par Bruxelles et des pays européens. Cette fois, c’est la Commission européenne en personne qui « devient un obstacle à la mise en œuvre rapide et efficace (de l’AI Act) », déplore EDRi, sur son compte LinkedIn. Pourtant, « tout nouveau retard risque de compromettre à la fois la protection des droits des personnes en vertu de la loi sur l’IA et la crédibilité de l’UE en tant que promoteur d’une réglementation de l’IA respectueuse des droits », déplorent les auteurs de la lettre.
Des standards techniques qui ne sont toujours pas finalisés
Depuis des mois, les géants de l’IA ont les yeux braqués sur Bruxelles et les différentes échéances de l’AI Act à venir. La prochaine aura lieu en août 2026. Dans onze mois, de nombreux développeurs d’IA devront respecter de nouvelles obligations de gestion des risques et de conservation des données, avant de mettre leurs IA sur le marché. Sont particulièrement concernées les IA à haut risque, comme les outils d’intelligence artificielle utilisés dans les ressources humaines, l’éducation et la justice.
À lire aussi : AI Act : un changement de taille attend les géants de l’IA le 2 août prochain : qu’est ce que ça va changer ?
Or, ces entreprises estiment, comme elles l’ont fait pour la précédente échéance d’août 2025, qu’elles n’ont pas toutes les données nécessaires pour se conformer à leurs nouvelles obligations. Le règlement sur l’IA est une législation qui se définit en deux temps : la loi en elle-même, déjà entrée en vigueur, mais qui a une application échelonnée jusqu’en 2030. Et un ensemble de textes secondaires, comme les « normes techniques », qui vont venir préciser ce que les obligations générales de l’AI Act veulent dire, en pratique.
Dans les faits, l’obligation de transparence, que doivent respecter les développeurs d’IA, ne sera pas la même si on se trouve face à une IA générative, ou face à une IA d’analyse de la qualité de produits dans l’industrie, nous expliquait Arnaud Latil, maître de conférences en droit privé à la Sorbonne Université, lors de l’entrée en vigueur du texte.
C’est la mise en œuvre de cette obligation de transparence qui va être définie notamment par le Cen Cenelec, le Comité européen de normalisation en électronique et en électrotechnique. Problème : tous les standards techniques ne sont pas, à ce jour, finalisés. Sans ces derniers, les entreprises concernées expliquent avoir du mal à se préparer à leur future conformité.
La déclaration surprise de Mario Draghi
Si les sociétés concernées cherchent aussi à ne pas être freinées par l’AI Act dans le déploiement de leurs modèles en Europe, ou à éviter des frais de mise en conformité, le point a été directement évoqué par Bruxelles. En juin dernier, Henna Virkkunen, la commissaire européenne responsable des nouvelles technologies, a estimé que « nous ne devons pas exclure de reporter certaines parties de l’AI Act », si les normes n’étaient pas prêtes à temps.
Et même si, à ce jour, ces normes ne sont pas toutes finalisées, l’exécutif européen maintenait jusqu’à présent le cap, en écartant toute idée de « stop the clock » – un mécanisme qui pourrait reporter certaines échéances de l’application de l’AI Act. Ce malgré la pression américaine : en août dernier, le président américain a menacé d’imposer des droits de douane aux pays dont la réglementation technologique « pénaliserait » les entreprises américaines.
À lire aussi : Bruxelles renonce à son projet de directive sur la responsabilité de l’IA après la mise en garde du vice-président américain
Cette position de l’UE est-elle toujours d’actualité ? Deux éléments, survenus la semaine dernière, sont venus semer le doute. Mario Draghi, l’ancien premier ministre italien, est d’abord venu porter un coup au calendrier prévu par l’AI Act. Mardi 16 septembre, ce dernier a estimé que cette loi était « source d’incertitude ». Pour l’ex-responsable européen, les règles relatives à l’IA à haut risque devraient être suspendues « jusqu’à ce que nous comprenions mieux leurs inconvénients ».
Le « paquet de simplification des règlements tech », une boîte de Pandore ?
Quelques heures plus tard, Bruxelles lançait un pavé dans la mare en publiant une « consultation » sur le « paquet de simplification des règlements tech », une initiative visant à simplifier certaines règles et à alléger la charge administrative des entreprises dans ce secteur. Or, des « ajustements ciblés » de la loi européenne sur l’IA sont bien à l’étude : une surprise pour beaucoup, car l’AI Act n’est pas encore totalement effectif – il s’applique de manière échelonnée jusqu’en 2030.
Le sujet est justement à l’ordre du jour du Conseil, la représentation des 27, ce mercredi 24 septembre. Selon Euractiv, les États-membres donneront leur avis sur les parties de l’AI Act qu’ils souhaiteraient « simplifier ».
Ces « ajustements ciblés » dans ce « paquet de simplification » seront-ils l’occasion d’introduire une pause ou un moratoire, pour l’AI Act ? La Commission européenne, directement questionnée sur ce point, a répondu par la négative. Interrogé devant la commission des libertés civiles du Parlement européen lors d’une audition lundi, Yvo Volman, directeur des données au sein de la DG « Réseaux de communication, contenu et technologie » de la Commission européenne, a répété qu’il « n’y aura pas de moratoire général sur la loi sur l’IA. Cela n’est pas un sujet sur la table. Nous nous concentrons sur la mise en œuvre pratique des règles ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.