août 3, 2025
LA SOCIÉTÉ "MY MEDIA GROUP " SOCIÉTÉ ÉDITRICE DU QUOTIDIEN "DAKARTIMES" DERKLE CITE MARINE N° 37. EMAIL: courrierdkt@gmail.com. SITE WEB: www.dakartimes.net.
Economie

GOUVERNANCE MONDIALE DE L’IA : Entre promesses et régulation, un défi urgent

Dans son étude intitulée « Promesses artificielles ou régulation réelle ? Inventer la gouvernance mondiale de l’IA », publiée en février 2025 par l’Ifri, Laure de Roucy-Rochegonde analyse les enjeux et tensions autour de la régulation internationale de l’intelligence artificielle. Face aux divergences politiques, économiques et géopolitiques, l’autrice met en lumière la nécessité d’un cadre de gouvernance flexible et inclusif pour encadrer les risques technologiques et promouvoir un développement responsable de l’IA.

La gouvernance mondiale de l’IA repose sur la capacité des acteurs étatiques et non étatiques à établir des normes communes sur les risques technologiques, les limites à établir, ainsi que les principes à garantir.  Summit, qui réunira des chefs d’État et de gouvernement, des représentants d’organisations internationales, des dirigeants d’entreprises, des acteurs du monde universitaire, des organisations non gouvernementales, des artistes et des membres de la société civile venus de plus de 100 pays. Dans cet environnement marqué par une compétition intense sur les plans politique, géopolitique et économique, les perspectives et les discours divergent quant aux priorités en matière de gouvernance de l’IA6.  Depuis 2019 – avec une accélération à partir de 2023 –, les initiatives pour encadrer l’IA se sont multipliées, portées par un large éventail d’acteurs, allant des gouvernements aux organisations internationales et régionales, en passant par des coalitions d’entreprises et des associations de la société civile.

Ce paysage fragmenté risque toutefois d’engendrer des cadres de gouvernance disparates, des dialogues parallèles non coordonnés et des préférences collectives divergentes, qui pourraient compromettre l’innovation et entraver le développement de l’IA pour le bien commun.  Dans un premier temps sera démontrée la nécessité d’une approche mondiale de l’encadrement de l’IA. Enfin seront proposées des pistes pour une meilleure régulation internationale de l’IA. Une préoccupation de gouvernance mondiale. À partir de 2023, chercheurs et responsables politiques ont accentué leurs mises en garde sur les dangers de cette technologie, notamment au regard des risques de suppressions d’emplois, des menaces pour la démocratie, des atteintes aux libertés civiles et à la vie privée, et des périls pour la propriété intellectuelle et le droit d’auteur10. « Quels sont, alors, les principaux risques associés à l’IA qui nécessiteraient une régulation ? » Les systèmes d’IA tendent en effet à reproduire et à amplifier les biais présents dans les corpus d’entraînement, parce que les jeux de données utilisés pour entraîner les algorithmes sont généralement incomplets, et que certains groupes de personnes y sont sous-représentés.

Même si les données utilisées pour alimenter un algorithme sont parfaitement représentatives, les choix de conception peuvent entraîner des résultats déformés et générer des effets discriminatoires importants.  Les systèmes d’IA s’appuient souvent sur des données contenant des informations personnelles, et leur collecte ou leur traitement sans le consentement des utilisateurs constitue une atteinte au droit à la vie privée25.  « Par ailleurs, les fuites de données et les accès non autorisés, notamment par le discrimination raciale, de xénophobie et de l’intolérance qui y est associée », op.  Les États autocratiques peuvent alors utiliser la surveillance fondée sur l’IA pour détecter et suivre les individus dans le but de dissuader la désobéissance civile avant qu’elle ne commence, renforçant ainsi leur autorité.

« La fabrication de puces, le stockage des données, l’entraînement des modèles, les requêtes des utilisateurs et les données produites ont des effets notables sur les ressources physiques, hydriques et énergétiques, avec des répercussions directes sur le climat. Pour la paix et la stabilité internationale. À cet égard, les risques en matière de cybersécurité sont particulièrement prégnants.  D’une part, les acteurs cyberoffensifs tirent d’ores et déjà profit des opportunités offertes par les LLM en matière de production de code informatique, de traduction automatique, ou de curation d’éléments techniques.

Ces capacités nouvelles font craindre la prolifération de cyberattaques de type rançongiciel ou par déni de service distribué, dans la mesure où les techniques d’IA permettent également de mieux coordonner les attaques grâce à des réseaux de systèmes contaminés .  Au-delà des seules « hallucinations » observées chez les chatbots, qui tendent parfois à inventer ou déformer des renseignements47, l’IA générative suscite de nombreuses craintes en matière de désinformation.  Cheminat, « Après WormGPT, les cybercriminels livrent FraudGPT », Le Monde Informatique, 47.  Les modes opératoires de cette campagne d’ingérence informationnelle demeurent flous à ce stade, mais il est probable que l’IA générative ait servi à élaborer et amplifier des contenus pro-Georgescu sur la plateforme chinoise51.

Bran, « En raison de l’influence de TikTok, les juges roumains annulent la présidentielle ».  Les progrès de l’IA militaire couplés aux avancées en matière de robotique font toutefois redouter leur utilisation abusive à des fins militaires, en particulier dans le cas des systèmes d’armes létales autonomes, que les médias appellent volontiers « robots tueurs ».  Ceux-ci désignent des systèmes qui, une fois activés, peuvent identifier une cible et user de la force létale sans être supervisés par un opérateur humain.  Se pose alors la question de la métacognition, si des systèmes poursuivaient leur apprentissage en cours de mission afin de s’adapter à des environnements changeants.

Plus largement, des systèmes auto-apprenants et capables d’évoluer au cours de leur utilisation interrogent, au-delà même de la maîtrise de leur configuration, sur la possibilité d’en garantir la fiabilité dans la durée.  Dans le même temps, d’autres acteurs pourraient « rentrer dans le jeu » en acquérant des technologies qui, bien que complexes, deviennent de moins en moins onéreuses et donc toujours plus accessibles. Secrétaire général de l’Organisation des Nations unies, Antonio Guterres, avait ainsi appelé à ce que soient « interdites par la législation internationale ces armes politiquement inacceptables et moralement révoltantes58 ».  Les craintes portent notamment sur la compatibilité de tels systèmes avec le droit des conflits armés et le principe de dignité humaine, sur le risque d’abaissement du seuil d’entrée en conflit et d’escalades destructrices, et sur leur diffusion auprès d’acteurs non étatiques violents59.

L’IA entraîne de surcroît un risque d’abaissement du seuil technologique d’accès aux armes de destruction massive. Des acteurs étatiques malveillants pourraient également être en mesure de développer de nouvelles armes, renforcer leur létalité et rendre plus difficile l’identification de l’agent employé, freinant logiquement le développement et l’administration de contre-mesures adaptées.  Plus récemment, lors de leur dernière rencontre officielle en novembre 2024, les présidents Xi et Biden se sont accordés sur la nécessité de limiter l’intégration de l’IA aux systèmes d’armes nucléaires60.  Il s’agit donc d’établir des limites claires concernant l’utilisation d’armes reposant sur l’IA, y compris les cyberarmes.

Cette technologie renforce les avantages des acteurs cyberoffensifs en leur permettant, par exemple, d’utiliser l’IA générative pour analyser rapidement de vastes volumes de logiciels et identifier leurs failles.  Un accord international interdisant certaines utilisations de l’IA militarisée, telles que les armes autonomes ou la propagation de désinformation pendant les campagnes électorales d’un autre pays, pourrait ainsi instaurer des garde-fous essentiels et promouvoir des pratiques responsables. Ce sont en effet ces mastodontes qui disposent des ressources stratégiques – fonds, semi-conducteurs, puissance de calcul, données, algorithmes, cloud et talents – qui leur donnent les leviers nécessaires pour infléchir les grandes orientations en matière d’IA64.  C’est la raison pour laquelle de plus en plus d’acteurs appellent de leurs vœux une politique combinant régulation et investissements publics dans l’IA, afin de contrebalancer l’influence grandissante des acteurs privés.

Certes, les innovations « ouvertes » sont moins exposées à la pression commerciale, qui pousse les acteurs propriétaires à avancer le plus rapidement possible afin de conserver leur avantage concurrentiel, au risque que leurs modèles ne soient ni totalement aboutis ni suffisamment sécurisés.  Piquard, « L’IA est la première technologie à être d’emblée dominée par les grands acteurs », Le Monde, 27 septembre 2024. Celles-ci sont notamment portées par les acteurs politiques et économiques américains, car elles présentent le double avantage de mettre en garde contre la menace chinoise tout en renforçant l’assise des Big Tech propriétaires de modèles fermés.  L’Organisation mondiale de la santé a ainsi alerté sur les effets potentiellement néfastes du recours aux technologies d’IA dans le domaine de la santé auprès des populations des pays en développement.

L’objectif est de mobiliser des décideurs, des acteurs industriels et des représentants de la société civile pour garantir un contrôle collectif de ces outils tout en veillant à la répartition équitable de leurs externalités à l’échelle mondiale.  À l’instar de la réglementation des innovations technologiques antérieures, la gouvernance de l’IA peut en ce sens produire des avantages collectifs, ou au contraire favoriser certains acteurs au détriment d’autres82. Maîtriser les conséquences sur d’autres enjeux globaux. Le troisième volet de préoccupations plaidant pour une gouvernance mondiale de l’IA tient aux conséquences que celle-ci emporte sur d’autres enjeux globaux. « Gartner Says Nearly Half of CIOs Are Planning to Deploy Artificial Intelligence », GartnerUn large éventail de politiques cohérentes avec les décisions prises en matière d’encadrement de l’IA doit alors être mis en œuvre par les régimes de gouvernance existants et émergents.

Plus généralement, les débats sur l’IA croisent des enjeux tels que l’équité du développement économique ou le respect des droits humains, qui font déjà l’objet de travaux et d’investissements par la communauté internationale.  Les défis auxquels sont confrontés la plupart des pays et qui touchent à des sphères aussi variées requièrent une réponse coordonnée à l’échelle mondiale. La gouvernance mondiale joue en outre un rôle fondamental dans le renforcement des échanges culturels et la compréhension mutuelle entre les nations.  Des institutions comme l’UNESCO permettent ainsi de bâtir des ponts entre les cultures, de promouvoir le dialogue et de nourrir un sentiment d’appartenance à une communauté mondiale.


Les gouvernements doivent collaborer pour instaurer des standards interopérables et coordonnés à l’échelle mondiale, fondés sur une compréhension rigoureuse des incidents et des dangers liés à l’IA. Une telle approche permettrait de garantir que l’IA profite à l’ensemble de la société tout en minimisant ses externalités négatives. Les approches des trois « blocs » de l’IADans ce domaine, l’UE, reconnue comme l’une des principales puissances normatives, parvient à tirer son épingle du jeu, même si la scène mondiale en matière d’innovation reste dominée par le duopole sinoaméricain.  L’UE s’est révélée pionnière en matière de régulation de l’IA.  Commission publiait son Livre blanc sur l’intelligence artificielle, donnant lieu à des débats puis à une proposition officielle de législation européenne en la matière le 21 avril 2021.

Le 14 novembre 2024, la Commission a publié le premier projet de code de bonnes pratiques en matière d’IA à 95. En février 2025, le chapitre I correspondant aux dispositions générales et le chapitre II correspondant à la pratique interdite en matière d’IA, c’est-à-dire les applications d’IA à risque « inacceptable » s’appliqueront.  En août 2025, le chapitre III section 4, le chapitre V , le chapitre VII , le chapitre XII contenant l’article 78 s’appliqueront, à l’exception de l’article 101 .  En août 2026, l’ensemble du règlement s’appliquera, à l’exception de l’article 6, paragraphe 1 du chapitre III et des obligations correspondant aux catégories de systèmes d’IA à risque « élevé ».

Proposés par des experts indépendants nommés par le Bureau de l’IA, les principaux aspects de ce code comprennent des détails sur la transparence et l’application des règles relatives au droit d’auteur pour les fournisseurs de modèles d’IA à usage général, ainsi qu’une taxonomie des risques systémiques, des méthodes d’évaluation des risques et des mesures d’atténuation pour les fournisseurs de modèles avancés d’IA à usage général susceptibles de présenter des risques systémiques. Sa mise en œuvre dans l’ensemble de l’UE est cependant confrontée à des défis allant de l’harmonisation entre les États membres de l’UE à l’implication des parties prenantes telles que les entités gouvernementales et les fournisseurs, importateurs, utilisateurs et distributeurs de systèmes d’IA.  Le rayonnement de ce règlement dépendra également de la manière dont les autres régions réagiront, en particulier les grandes puissances de l’IA comme les États-Unis et la Chine103.  Les négociations de l’AI Act n’ont pas non plus été bien vécues par certaines start-ups éminentes du domaine, au premier rang desquelles la « licorne » française Mistal AI, forte de ses quelque 6 milliards d’euros de valorisation atteints en quelques mois.

Dans le domaine normatif également, les décideurs politiques chinois ont insisté sur leur volonté d’être les premiers à agir, afin de s’offrir un leadership mondial en matière de gouvernance de l’IA. Compte tenu du désinvestissement des États-Unis des affaires multilatérales consécutif à l’investiture de Donald Trump, la Chine pourrait être tentée de reprendre le récit occidental à ses propres fins. Une régulation menacée aux États-Unis. Parallèlement à ces processus en Europe et en Chine, les États-Unis ont imaginé leurs propres feuilles de route pour déterminer et tempérer les menaces associées aux technologies d’IA.  Bien que le récit américain du « jeu à somme nulle » dans sa compétition avec la Chine limite la possibilité d’une régulation ambitieuse aux États-Unis, un phénomène d’inflation législative tend à se mettre en place, du fait de rapports de force internes.


États-Unis qu’ils ne laissent pas la Chine « prendre la première position en termes d’innovation, ni écrire le Code de la route115 » en matière d’IA. Institute of Standards and Technology a mis au point le AI RiskConçu pour une utilisation volontaire, il vise à améliorer la capacité à intégrer des considérations de fiabilité dans la conception, le développement, l’utilisation et l’évaluation des produits, services et systèmes d’IA aux États-Unis.  Il constitue l’un des efforts les plus ambitieux du gouvernement américain pour encadrer le développement et l’utilisation de cette technologie, et visait à positionner les États-Unis en tant que leader dans l’adoption de pratiques sûres, éthiques et responsables en matière d’IA. Une grande partie des efforts de réglementation de l’IA reposant sur le travail des agences fédérales, les principes établis pourraient perdurer même après l’abrogation du décret, permettant aux États-Unis de conserver leur influence dans la définition de normes en la matière.

Des initiatives multilatérales en « patchwork ». À la course à l’innovation technologique s’ajoute une vive compétition entre les États, dont beaucoup rêvent de devenir la première puissance normative de l’IA.  Les trois grands blocs s’efforcent donc de prendre le leadership en matière de gouvernance, afin de faire advenir des réglementations compatibles avec leurs ambitions nationales, et susceptibles de freiner au passage leurs compétiteurs. Pays adhérents aux principes de l’OCDE sur l’IAÀ titre d’exemple, l’UE, le Conseil de l’Europe, les États-Unis et même les Nations unies utilisent la définition d’un système d’IA posée par l’OCDE dans leurs cadres législatifs et réglementaires et dans leurs orientations politiques. Tableau comparatif des principes de l’UNESCO et de l’OCDE sur l’Intelligence artificielle. En novembre 2021, l’UNESCO à quant à elle proposé son tout premier standard mondial sur l’IA, la « Recommandation sur l’éthique de l’Intelligence artificielle », adoptée par l’ensemble de ses 193 États membres.

En octobre 2023, les pays du G7 se sont également accordés sur un code de conduite volontaire à destination des entreprises développant des systèmes d’IA avancés.  Les onze points de ce code visent à « promouvoir mondialement une IA sûre et digne de confiance » et à « contribuer à saisir les avantages et à répondre aux risques et défis apportés par ces technologies ». Une autre tendance observée dans les efforts multilatéraux d’encadrement des technologies d’IA tient à l’émergence d’une forme de « diplomatie des sommets », qui voit différents États chercher à s’affirmer comme chef de file de la gouvernance mondiale en organisant de vastes rencontres internationales.  États participants au sommet – comme l’ont notamment fait les États-Unis au sein du NIST.Réseau international des instituts de sécurité de l’IA126.

États-Unis et l’UE se sont par ailleurs accordés sur une déclaration commune, dite « Déclaration de Bletchley », qui témoigne d’une volonté de coopération pour établir un cadre normatif garantissant que l’IA est développée et utilisée de manière responsable et fiable dans le monde entier.

Dans le cadre du Trade and Technology Council mis en place par Joe Biden et Ursula von der Leyen entre 2021 et 2024, les AI Safety Institutes ont d’ailleurs été mobilisés pour étendre la coopération pour une IA sûre, fiable et responsable.  Les progrès modestes du PMIA – ou, plus récemment, des sommets sur la sécurité de l’IA – démontrent également la difficulté de converger vers une régulation mondiale dans un monde profondément fragmenté.  Dans les faits, il ne suffit pas que des États adhèrent à une nouvelle institution internationale pour que les normes se mettent en place d’autant que, dans le domaine de l’IA, les acteurs non étatiques s’avèrent incontournables. Toutefois, alors que le groupe d’experts gouvernementaux doté d’un mandat de discussion sur le cadre normatif et opérationnel à apporter à ces technologies travaille depuis plus de dix ans, les efforts de régulation sont dans l’impasse.

De fait, en offrant un cadre juridique clair, en unifiant la réglementation des différents marchés nationaux à l’échelle de l’Europe et en permettant à d’autres acteurs que les seuls géants de la tech d’y accéder, les normes européennes s’avèrent plutôt propices à la concurrence et à l’innovation, en même temps qu’elles permettent de développer sereinement ces technologies. « » Malgré ces déclarations d’intention, les véritables priorités des Big Tech peuvent être questionnées, puisqu’alors que les applications de l’IA se développent, les équipes consacrées aux questions d’éthique ou aux pratiques responsables de l’IA chez Meta, Google, Microsoft et Amazon voient leurs effectifs diminuer148.  Les forums multilatéraux semblent le lieu privilégié pour harmoniser les diverses approches de la régulation. Au prétexte de la défense de l’innovation, Paris voulait en réalité assurer les possibilités de croissance de la prometteuse. Au-delà de la recherche d’un avantage concurrentiel, les parties prenantes veulent également imposer un modèle de valeurs sous-tendant le développement et le déploiement de l’IA, à l’image de l’UE qui insiste en particulier sur le respect des droits humains.

Les pays du Sud, en revanche, se concentrent davantage sur les conséquences sociales et les inégalités économiques créées par ces technologies émergentes.  Or, les discussions actuelles sur la gouvernance de l’IA ne tiennent pas suffisamment compte du rôle essentiel des traités.  Tout à leur impatience de créer de nouvelles institutions internationales, les dirigeants politiques tendent à oublier que les capacités de contrôle ne peuvent émerger que d’engagements contraignants de la part des États et n’être garanties que si elles sont assorties de mécanismes de sanction en cas d’infraction. Contrairement au nucléaire, dont la maîtrise relève principalement des gouvernements, les capacités en matière d’IA sont concentrées entre les mains de quelques entreprises qui commercialisent activement leurs produits.

Les organismes internationaux de standardisation sont, à ce titre, cruciaux pour faire advenir une gouvernance de l’IA qui dépasse les vœux pieux et qui puisse véritablement contraindre les géants du numérique américains ou chinois.  Les normes techniques sont en effet essentielles pour définir les paramètres des systèmes d’IA, qu’il s’agisse des architectures de référence de base, des exigences en matière de sécurité et d’éthique ou du fonctionnement technique d’applications spécifiques dans un large éventail de domaines, notamment les soins de santé, l’éducation, la fabrication de pointe, l’énergie et l’agriculture.  Ainsi, les représentants les plus actifs sur la normalisation de l’IA sont actuellement des salariés de Microsoft, d’IBM, de Google et de Huawei, puisque la représentation se fait par nationalité, indépendamment de l’entreprise d’appartenance. « Il s’agit d’une stratégie délibérée du gouvernement chinois pour fixer les règles du jeu dans les nouveaux domaines des technologies de l’information et de la communication et pour rompre avec les normes passées, qui ont été largement déterminées par les États-Unis et l’Europe.

Ceux qui rédigent les normes techniques disposent alors d’un pouvoir extraordinaire, ce que certains pays comme les États-Unis et la Chine ont bien compris.  Se concentrer uniquement sur la justice en tant que valeur procédurale reviendrait à négliger ces effets distributifs créés par la diffusion des systèmes d’IA. La nécessaire articulation avec les régulations nationales. Ce n’est qu’en introduisant des règles communes que les États pourront s’assurer que ces entreprises sont exposées à des environnements réglementaires similaires. Vers une gouvernance « future proof ». D’abord, les règles existantes peuvent être réinterprétées pour couvrir également l’IA170.  De plus, les États utilisent souvent de nouvelles technologies bien avant de se mettre d’accord sur des règles spécifiques pour réguler leur usage 173.

À l’instar de la course à l’armement nucléaire au XXᵉ siècle, les États et les entreprises privées risquent de privilégier la rivalité économique et géopolitique au détriment de la sécurité collective174.  Pour endiguer cette trajectoire, les décideurs politiques doivent non seulement démêler les bénéfices potentiels des risques associés à l’IA, mais aussi encourager un développement qui maximise les premiers, tout en atténuant les seconds.  Si les sommets, les codes de conduites, les règlements et les déclarations ont mis en lumière l’importance de la gouvernance de l’IA, des engagements plus contraignants sont nécessaires pour entreprendre un véritable changement.  » Bien sûr, le multilatéralisme n’a pas le vent en poupe, encore plus alors que les États-Unis de Donal Trump II dénoncent leurs engagements internationaux les uns après les autres.

C’est aussi une étape importante puisque c’est l’une des premières fois que les États-Unis et l’Ue s’alignent officiellement sur la réglementation de l’IA175. Au Sommet de l’avenir de septembre 2024, les dirigeants des 193 États des Nations unies ont par ailleurs adopté à l’unanimité le « Pacte de l’avenir », qui a pour objectif de réinventer le système multilatéral, ainsi que le « Pacte numérique mondial », qui doit leur permettre de se saisir des défis à long terme en la matière.

 

El Hadji Malick SARR

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *