Passer au contenu

Gouverner avec ChatGPT ? La petite phrase du Premier ministre suédois provoque un tollé

En Suède, la confidence du Premier ministre Ulf Kristersson sur son usage de ChatGPT pour « obtenir un deuxième avis » a déclenché une vive polémique. Une petite phrase qui soulève de lourdes questions sur la gouvernance à l’ère de l’intelligence artificielle

Tout est parti d’une interview accordée au journal économique Dagens industri, où le chef du gouvernement a admis sans détour son recours régulier à l’intelligence artificielle dans le cadre de ses fonctions. Le Premier ministre fait appel à des assistants comme ChatGPT ou le service français Le Chat pour se forger une opinion. « Je l’utilise moi-même assez souvent. Ne serait-ce que pour obtenir un deuxième avis. Qu’ont fait les autres ? Et devrions-nous penser exactement le contraire ? Ce genre de questions », confie Ulf Kristersson. Une révélation qui pourrait passer pour une simple marque de modernité, si elle ne touchait pas au cœur même du pouvoir. Car aussitôt, la question a fusé, cinglante : qui dirige vraiment la Suède ? Un homme d’État ou un algorithme ?

« Nous n’avons pas voté pour ChatGPT »

La réaction ne s’est pas fait attendre. Dans la presse et le milieu universitaire, la sortie du Premier ministre a été accueillie par une volée de bois vert. L’accusation la plus virulente est peut-être venue de la chroniqueuse Signe Krantz, dans les pages du quotidien Aftonbladet, qui fustige un dirigeant ayant « succombé à la psychose de l’IA des oligarques ». Elle met le doigt sur une faille béante de ces technologies : « Les chatbots préfèrent écrire ce qu’ils pensent que vous voulez entendre plutôt que ce que vous avez besoin d’entendre ». On imagine sans peine le danger d’un dirigeant, conforté dans ses propres biais par un logiciel sycophante, s’enfonçant dans ses certitudes.

Le monde académique partage cette inquiétude, comme Virginia Dignum, professeure en intelligence artificielle responsable à l’Université d’Umeå. Elle a résumé le sentiment général d’une phrase choc devenue virale : « Nous n’avons pas voté pour ChatGPT ». Pour elle, l’usage de l’IA par le Premier ministre, même pour des « choses simples », est une « pente glissante » qui mène à un « excès de confiance dans le système ».

Une crainte pour la sécurité nationale

Au-delà du risque de dérive politique, c’est la question de la sécurité nationale qui est posée. Jakob Ohlsson, consultant et expert en IA, qualifie l’approche du Premier ministre d’« amateurisme ». Il souligne le danger stratégique : « Il injecte ses pensées politiques dans un modèle linguistique qu’il ne comprend pas, détenu par une entreprise qu’il ne contrôle pas, dont les serveurs sont situés dans un pays dont personne ne peut plus être totalement sûr de l’avenir démocratique ». Même anonymisées, des bribes d’informations peuvent permettre à un analyste compétent de reconstituer la pensée stratégique d’un gouvernement, assure-t-il.

Face au tollé, le cabinet du Premier ministre a tenté de calmer le jeu, assurant qu’aucune « information sensible » n’était partagée avec les IA, qu’il s’agissait simplement d’obtenir une « estimation ». Une défense qui peine à convaincre et qui relance le débat autour de l’utilisation de l’IA en politique. En 2023, les députés français avaient discuté d’un amendement rédigé par…ChatGPT.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Gizmodo


Thomas Estimbre