Près de trois ans après le lancement de ChatGPT aux États-Unis et dans le monde, la toute première loi régulant l’intelligence artificielle aux États-Unis a été promulguée dans le pays, lundi 29 septembre. Pour ses promoteurs, la législation définit « des gardes-fous de bon sens » et permettra de « protéger la sécurité publique » tout en « stimulant l’innovation ». Mais en pratique, qu’impose cette nouvelle loi, à qui, et comment ? Voici ce qu’il faut en retenir.
1. Pourquoi cette loi ?
Pour le sénateur démocrate Scott Wiener, à l’origine de la loi, les « preuves que les modèles (de langage IA, NDLR) contribuent à la fois aux risques liés aux armes chimiques, biologiques, radiologiques et nucléaires (…) et aux préoccupations liées à la perte de contrôle se sont multipliées ». Or si, ces derniers mois, Meta, Google, OpenAI et Anthropic se sont engagés dans le pays volontairement à mettre en place des protocoles de sécurité robustes pour leurs modèles d’IA, il fallait encore des engagements contraignants et obligatoires.
C’est tout l’objet de cette législation, qui « codifie les engagements volontaires (des entreprises de l’IA, NDLR) afin d’établir des règles du jeu équitables et de garantir une plus grande responsabilité dans l’ensemble du secteur ».
2. À qui s’applique-t-elle ?
La toute nouvelle loi « Transparency in Frontier Artificial Intelligence Act » ou SB 53 n’est pas une loi fédérale qui s’appliquerait à tout le territoire américain. Elle devra « uniquement » être respectée en Californie, ce qui est loin d’être anodin. Cet État abrite 32 des 50 plus grandes entreprises mondiales spécialisées dans l’IA. Parmi elles, on trouve les entreprises les plus emblématiques du secteur dont OpenAI, l’entreprise à l’origine de ChatGPT, Google, qui a développé Gemini, Meta (Llama) et Anthropic (Claude).
À noter que les nouvelles règles ne s’appliqueront pas à toutes les entreprises californiennes de l’IA, mais uniquement aux plus importantes. Selon le texte, seules les sociétés qui génèrent un chiffre d’affaires brut de 500 millions de dollars ou plus sont concernées, ce qui exclurait de fait les petites entreprises et start-up du secteur – une exclusion destinée à ne pas entraver l’innovation dans la Silicon Valley.
3. Qu’impose cette nouvelle loi ?
Concrètement, la loi obligera les développeurs d’IA à davantage de transparence dans leurs mesures et pratiques de sécurité. Elles devront, et c’est une première, rendre publics leurs protocoles de sécurité avant de déployer leurs modèles. Le règlement européen sur l’IA exige, de son côté, que ces protocoles soient partagés avec les gouvernements européens, sans pour autant être publiés.
Les entreprises de l’IA californiennes ont aussi l’obligation de signaler à l’administration les « comportements trompeurs d’un modèle », comme lorsque les modèles « mentent sur l’efficacité des limites mises en place par les développeurs », explique dans un communiqué le sénateur démocrate Scott Wiener, à l’origine du texte.
Les entreprises ont mis en place « des contrôles sur les systèmes d’IA afin d’empêcher ceux-ci de contribuer à la fabrication d’armes biologiques ou à d’autres tâches hautement dangereuses définies par les utilisateurs », rappelle le sénateur américain. Or, si, lors de tests de routine, « les développeurs surprennent le système d’IA en train de mentir sur l’efficacité de ces contrôles (…), et que ce mensonge augmente considérablement le risque d’un préjudice catastrophique, le développeur serait tenu de divulguer cet incident au Bureau des services d’urgence en vertu du projet de loi SB 53 », ajoute-t-il dans son communiqué.
Les développeurs d’IA devront aussi signaler sous 15 jours à l’administration locale tout incident de sécurité comme « les menaces liées à l’utilisation de l’IA pour (mener) des cyberattaques majeures ou la perte de contrôle des modèles ».
Un deuxième pan de la loi a trait à la protection des employés du secteur, qui souhaiteraient révéler des risques critiques ou de violations de la loi de leurs employeurs, les développeurs d’IA. Ces salariés de l’IA bénéficieront d’une protection similaire à celle s’appliquant aux lanceurs d’alerte dans le pays. En théorie, ils pourront réaliser des signalements sans être inquiétés, même s’ils ont signé un accord de confidentialité.
4. Quelle portée pour cette loi californienne ?
Adoptée en Californie, la loi pourrait être reprise dans d’autres États américains, voire au niveau fédéral, bien que l’administration Trump prône la dérégulation du secteur. Dans le passé, la Californie a souvent donné le ton des lois fédérales, notamment en matière d’environnement, de droit du travail ou encore de protection des consommateurs. Et « en matière d’IA, ce qui vaut pour la Californie vaut pour le reste du pays », écrit le média américain Vox.
Malgré tout, la portée de la législation pourrait être limitée, car son principal objectif est de s’attaquer aux « risques catastrophiques liés à l’IA ». La loi SB 53 impose en fait aux géants californiens de l’IA d’expliquer comment ils réduisent ces risques catastrophiques, en publiant leurs protocoles de sécurité.
La définition de ces « risques catastrophiques » est donc essentielle. Il s’agit d’un « risque prévisible et important » d’un événement impliquant « plus de 50 victimes » ou causant « plus d’un milliard de dollars de dommages », et auquel un modèle d’IA aurait contribué, de manière significative. Ce qui serait le cas si, par exemple, un modèle est utilisé pour créer un virus mortel qui infecterait des millions de personnes.
À lire aussi : IA : le nouvel appel mondial à adopter des « lignes rouges avant qu’il ne soit trop tard » sonnera-t-il dans le vide ?
Cela signifie que cette législation vise à prévenir de futurs et hypothétiques (voire apocalyptiques) dommages dont l’IA serait responsable. Elle ne s’attaque pas aux problèmes plus immédiats soulevés par les modèles d’IA, comme la destruction d’emplois, les deepfakes ou l’impact possible de cette technologie sur la santé mentale de certains utilisateurs, dont les adolescents.
À lire aussi : Aux États-Unis, ChatGPT est accusé d’être impliqué dans un meurtre
Il s’agit néanmoins de « garde-fous de bon sens, pour comprendre et réduire les risques », s’est félicité le sénateur Wiener dans son communiqué. L’année dernière, le sénateur démocrate avait tenté de faire adopter une législation similaire, retoquée par le gouverneur de Californie, Gavin Newsom après la très vive opposition des entreprises technologiques. Ces dernières estimaient qu’elle nuirait à l’essor de l’industrie de l’IA en Californie.
À lire aussi : La loi californienne qui voulait mettre au pas les géants de l’IA est retoquée
En coulisses, les entreprises de l’IA étaient surtout vent debout contre une disposition qui les rendait, pour la première fois, responsables des dommages causés par leurs systèmes. Cette responsabilité n’est ici pas reprise, et c’est peut-être ce qui explique que la fronde des géants de l’IA n’a, cette fois, pas eu lieu.
Car la loi SB 53 vise finalement à rendre :
- les plus grosses entreprises californiennes
- responsables de leurs engagements liés à la sécurité de l’IA,
- mais seulement pour les « risques catastrophiques »,
avec à la clé une sanction financière pouvant atteindre un million de dollars par infraction.
Résultat, Anthropic, qui a développé l’agent conversationnel Claude, a soutenu le texte. Le porte-parole de Meta, Christopher Sgro, a déclaré de son côté dans les colonnes de Politico que le groupe « soutient une réglementation équilibrée de l’IA », qualifiant la nouvelle loi californienne de « pas positif dans cette direction ». Jamie Radice, porte-parole d’OpenAI, estime, toujours chez nos confrères, que si la loi « est mise en œuvre correctement, cela permettra aux gouvernements fédéral et étatiques de coopérer pour un déploiement sûr de la technologie IA ».
Mais pour le groupe de lobbying de l’industrie technologique « Chamber of Progress », le texte nuira encore et toujours à l’innovation. Robert Singleton, directeur principal du groupe pour la Californie cité dans un communiqué, « cela pourrait envoyer un signal dissuasif à la prochaine génération d’entrepreneurs qui souhaitent s’implanter ici, en Californie ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.