Malgré les avertissements de scientifiques, de philosophes et d’organisations internationales de renom, les géants de la technologie n’ont pas ralenti leur marche vers la superintelligence (entendue comme une forme d’intelligence artificielle surpassant aisément les capacités cognitives humaines dans presque tous les domaines). Au contraire, la concurrence s’est non seulement intensifiée, mais a également imposé une dynamique d’accélération continue. L’absence d’un cadre juridique international véritablement contraignant laisse ce processus, qui progresse avec la logique implacable de la puissance technologique, sans aucun contre-pouvoir : celui qui y parviendra en premier contrôlera non seulement la frontière scientifique de ce siècle, mais acquerra également une forme de supériorité géopolitique sans précédent.
Loin de toute exagération apocalyptique, les avertissements les plus pertinents s’appuient sur des données concrètes qui confirment déjà cette hypothèse. En quelques années, des modèles autrefois cantonnés à des tâches marginales surpassent désormais les spécialistes humains, tandis que les centres de données fonctionnent comme des laboratoires autonomes où des milliers d’agents numériques sont perfectionnés sans le contrôle nécessaire. Des scénarios élaborés par des experts reconnus, tels que AI 2027, anticipent un monde où l’intelligence artificielle pilote sa propre évolution, générant des boucles d’accélération qu’aucun gouvernement ne peut enrayer sans sacrifier son influence face à ses rivaux.
Les États-Unis et la Chine ne rivalisent plus pour l’influence militaire ou économique au sens traditionnel du terme, mais pour le contrôle des architectures numériques qui définiront l’ordre mondial du XXIe siècle. Dans cette course, le risque ne réside pas dans une IA ouvertement hostile, mais dans une IA indifférente, capable d’optimiser sans se soucier de la place de l’humain et des valeurs démocratiques. La tentation perverse de surpasser l’adversaire à tout prix sera toujours présente. La dystopie devient plausible non pas à cause d’une malice algorithmique, mais à cause de la logique géopolitique qui nous oblige à continuer d’avancer même lorsque l’abîme est parfaitement visible – et, pire encore, évitable.
Les transformations en cours sont déjà profondes et visibles. L’avertissement du prix Nobel 2024 Geoffrey Hinton, pionnier des réseaux neuronaux qui sont au fondement de l’intelligence artificielle, se confirme jour après jour : nous pourrions approcher d’un monde où distinguer le vrai du faux est quasiment impossible. Des recherches récentes déconstruisent l’idée que les systèmes génératifs puissent identifier et corriger de manière fiable la désinformation circulant sur les réseaux sociaux. C’est même tout le contraire : la probabilité que ces modèles diffusent des affirmations trompeuses sur l’actualité a pratiquement doublé en un an. Selon une étude récente, 35% des réponses générées par l’IA contenaient de fausses informations, tandis que la proportion de questions sans réponse est passée de 31% en août 2024 à zéro. Cela signifie que même en l’absence d’informations suffisantes pour étayer une affirmation, l’intelligence artificielle produit tout de même une réponse, étendant ainsi un écosystème où la frontière entre information vérifiable et information illusoire s’estompe rapidement.
Dans ce contexte, le concept d’autorégulation se révèle franchement insuffisant, car il détourne les États de leur fonction essentielle de régulation et de protection de l’intérêt public. Sam Altman, PDG d’OpenAI et cofondateur de Worldcoin (un projet utilisant la reconnaissance de l’iris pour créer une identité numérique censée garantir l’humanité de chaque utilisateur dans des environnements saturés de bots et de deepfakes, et simultanément une cryptomonnaie conçue comme l’infrastructure financière de l’ère post-intelligence artificielle), incarne parfaitement ce paradoxe. D’une part, il promeut des modèles d’intelligence artificielle toujours plus puissants, capables de produire des informations qui ne sont pas toujours vérifiables ; d’autre part, il propose de canaliser les futurs bénéfices économiques de cette automatisation via un jeton émis et géré par son propre écosystème. Cela crée un circuit fermé où les grandes plateformes s’arrogent le pouvoir de déterminer quels risques sont acceptables, comment les atténuer, qui reçoit une attestation numérique d’« humanité vérifiée » et qui peut participer à l’économie automatisée de demain. L’autorégulation cesse d’être un complément au droit public et devient une forme de gouvernance d’entreprise dans la sphère numérique, où ceux qui contribuent à créer le problème revendiquent également le droit de décider comment – et pour qui – il est résolu.
À l’échelle géopolitique, le premier symptôme de ces tendances pourrait être la consolidation d’un écosystème informationnel radicalement instable. La désinformation est née comme outil de guerre psychologique au XXe siècle. La différence réside dans le fait qu’aujourd’hui, des modèles autonomes et des essaims de bots permettent de l’industrialiser à moindre coût et avec une précision chirurgicale. Les États qui cherchent à modifier l’ordre international à leur avantage utilisent déjà des campagnes numériques, des fermes à trolls et des opérations clandestines pour éroder la confiance dans les institutions démocratiques, polariser les sociétés et fragiliser les alliances. Grâce à l’intelligence artificielle, ces opérations peuvent être conçues à distance, segmentées selon des profils psychologiques et exécutées à une vitesse sans précédent, tandis que les sociétés concernées débattent pour savoir s’il s’agit de propagande ou de liberté d’expression.
Dans le même temps, la course entre les États-Unis et la Chine pour la suprématie en intelligence artificielle révèle un fossé technologique toujours plus grand avec le reste du monde. Les puissances qui concentrent les talents, les données et la puissance de calcul ne se contenteront pas d’accroître leur avantage économique et militaire, mais imposeront également leurs normes techniques, leurs plateformes et leurs dépendances aux autres pays. De nombreux pays en développement –notamment en Amérique latine (comme le Mexique), en Afrique et en Asie du Sud-Est – risquent de devenir, au mieux, de simples fournisseurs de données et des marchés captifs pour des services d’IA conçus ailleurs. La souveraineté ne se mesurera plus uniquement à l’aune du territoire, mais aussi à la capacité d’un pays à développer, contrôler et, à terme, limiter les systèmes qui structurent son économie, sa sécurité et le débat public.
La dimension militaire accentue encore cette asymétrie. Par exemple, la guerre en Ukraine a démontré que des drones bon marché peuvent mettre à mal des armées conventionnelles et des systèmes de défense aérienne ayant coûté des millions de dollars. L’étape suivante, déjà en cours, est l’intégration de systèmes de surveillance, d’identification et de sélection de cibles dans des plateformes létales de plus en plus autonomes. Des essaims de drones kamikazes aux systèmes de profilage de masse permettant de déterminer qui est l’ennemi, la frontière entre la prise de décision humaine et l’automatisation devient dangereusement ténue. Un accord mondial interdisant ou limitant efficacement les armes autonomes semble improbable à court terme : trop de pays y voient une opportunité de compenser leurs désavantages stratégiques. Des cadres réglementaires n’émergeront peut-être qu’après une tragédie, lorsqu’un échec majeur imputable à ces technologies révélera le caractère inacceptable de cette logique.
La pression ne viendra pas uniquement de l’extérieur. Au sein même des États, la tentation d’utiliser l’intelligence artificielle à des fins de surveillance préventive sera difficile à résister. Au nom de la sécurité nationale, de la lutte contre le terrorisme ou de la stabilité intérieure, rares sont les gouvernements – même démocratiques – qui renonceront définitivement à la capacité de surveiller les communications, les déplacements et les comportements avec une précision sans précédent. Le risque réside dans un réseau de caméras, de capteurs, de modèles de prédiction des risques et de bases de données biométriques fonctionnant comme un système nerveux numérique pour un État affaibli, contrôlé par des intérêts oligopolistiques. Formellement, les constitutions pourraient rester en vigueur ; en pratique, la liberté de circulation, d’association et de contestation pourrait être conditionnée par des scores opaques, des listes de risques et des décisions automatisées difficiles à contester.
Si cette tendance se maintient, le monde des prochaines décennies pourrait se diviser en trois grandes catégories d’acteurs : les puissances capables de concevoir et de contrôler des systèmes d’intelligence artificielle avancés ; les pays qui dépendent de ces puissances pour leur infrastructure numérique, leur défense et leur modèle économique ; et les territoires transformés en zones grises où se déroulent des guerres hybrides, où de nouvelles armes sont testées et où des populations vulnérables font l’objet d’expérimentations. Dans ce scénario, la « superintelligence » cesserait d’être un concept abstrait et deviendrait un facteur de puissance : le pays ou le consortium qui parviendrait à déployer une intelligence nettement supérieure et relativement autonome pourrait remodeler le système international.
La question fondamentale n’est donc pas seulement de savoir si nous pouvons contenir une hypothétique superintelligence, mais aussi si les grandes puissances seront capables de se modérer dans cette course. En théorie, les nations pourraient s’entendre sur des limites : interdictions claires des armes autonomes, accords de protection des infrastructures critiques, mécanismes conjoints de surveillance des systèmes influençant les élections ou les marchés, et audits indépendants des modèles jugés monopolistiques et désalignés. Mais en pratique, tous les facteurs géopolitiques tendent à aller dans le sens inverse : prendre l’avantage sur le rival, collecter davantage de données, entraîner des modèles plus performants, se militariser plus tôt. La possibilité d’un cadre de gouvernance viable avant la prochaine crise majeure demeure, mais elle se réduit à chaque cycle d’innovation. Si le XXe siècle a été marqué par la menace d’une destruction nucléaire mutuelle, le XXIe pourrait être défini par un élément moins visible mais tout aussi profond : la possibilité que la course à la superintelligence anéantisse, petit à petit, les conditions qui ont rendu possibles la démocratie et l’autonomie nationale.
Eduardo Turrent Mena, TELOS, 27 novembre 2025

