UNOG - United Nations Office at Geneva

09/24/2025 | News release | Distributed by Public on 09/24/2025 23:15

L’IA, un « bébé tigre » qui pourrait de se transformer en prédateur

L'intelligence artificielle est là et elle transforme déjà la vie quotidienne. Face aux enjeux de l'IA, le Conseil de sécurité a organisé un débat sur l'impact de cette technologie révolutionnaire sur la paix et la sécurité internationales, en marge du débat annuel de l'Assemblée générale des Nations Unies.

La fenêtre d'opportunité pour façonner l'IA - au service de la paix, de la justice et de l'humanité - « est en train de se refermer », a prévenu, lors de ce débat au Conseil, le Secrétaire général de l'ONU, António Guterres, qui a appelé à « agir sans tarder ».

« Ce bébé tigre va grandir et se transformer soit en un prédateur qui nous dévorera tous, soit en un animal domestique adoré », a renchéri le Président de la République de Corée, Lee Jae Myung, dont le pays préside ce mois-ci le Conseil de sécurité, en paraphrasant les propos d'un spécialiste de l'intelligence artificielle Geoffrey Hinton. Un avenir très différent peut donc naître sous nos yeux en fonction de la manière dont nous décidons d'utiliser cette technologie, a pronostiqué le Président sud-coréen.

UN Photo/Evan Schneider
Réunion du Conseil de sécurité sur l'intelligence artificielle et la paix et la sécurité internationales.

Déterminer son influence

Le chef de l'ONU a rappelé que la communauté internationale a su, par le passé, « relever le défi des technologies susceptibles de déstabiliser nos sociétés », qu'il s'agisse du contrôle des armement nucléaires ou de la sécurité aérienne, « en établissant des règles, en créant des institutions et en plaçant la dignité humaine au premier plan ».

Alors que l'intelligence artificielle « est là », transformant « la vie quotidienne, l'espace de l'information et l'économie mondiale à une vitesse stupéfiante », la question « n'est pas de savoir si elle aura une influence sur la paix et la sécurité internationales, mais comment nous déterminerons cette influence », a estimé le Secrétaire général.

Selon lui, employée de manière responsable, l'intelligence artificielle peut renforcer la prévention et la protection, anticiper l'insécurité alimentaire et les déplacements de population, faciliter le déminage, et aider à repérer de potentielles flambées de violence.

« Mais, sans garde-fou, elle peut aussi devenir une arme », a-t-il prévenu, notant que les conflits récents servent de terrains d'essai pour les systèmes de ciblage fondés sur l'intelligence artificielle et leur autonomie.

« Les cyberattaques facilitées par l'intelligence artificielle peuvent déstabiliser ou détruire des infrastructures critiques en quelques minutes. La capacité de fabriquer et de falsifier des documents audio et vidéo menace l'intégrité de l'information, alimente la polarisation et peut déclencher des crises diplomatiques. Et les besoins massifs en énergie et en eau des grands modèles, associés à la concurrence pour les minéraux critiques, créent de nouveaux facteurs de tension géopolitique », a averti lle Secrétaire général.

Quatre priorités

Le mois dernier, l'Assemblée générale a créé un Groupe scientifique international indépendant de l'intelligence artificielle, et décidé qu'un Dialogue mondial sur la gouvernance de l'intelligence artificielle se tiendrait tous les ans.

Selon le Secrétaire général, il est nécessaire de se concentrer sur quatre priorités : veiller à ce que les humains gardent le contrôle sur l'emploi de la force ; établir des cadres réglementaires mondiaux cohérents ; protéger l'intégrité de l'information dans les situations de conflit et d'insécurité ; et combler les écarts de capacités en matière d'intelligence artificielle.

Surpasser les humains

Deux scientifiques ont ensuite partagé leur expertise sur l'intelligence artificielle avec les participants du débat : Yoshua Bengio, professeur à l'Université de Montréal, coprésident et directeur scientifique de LawZero, et Yejin Choi, professeure d'informatique et chercheuse principale au Stanford Institute for Human-Centered Artificial Intelligence.

Selon Yoshua Bengio, si les tendances actuelles se poursuivent, certaines intelligences artificielles pourraient surpasser les humains dans la plupart des tâches cognitives d'ici à seulement cinq ans.

Il a présenté les conclusions de l'International Al Safety Report, le premier rapport visant à établir une compréhension scientifique de la sécurité des systèmes d'IA avancés, afin d'éclairer les politiques en la matière.

Ce document, a-t-il détaillé, aborde notamment les trois principaux risques que présente l'IA, à commencer par la concentration du marché et du pouvoir, qui pourrait conférer un avantage économique, politique ou militaire disproportionné à une poignée d'entreprises, de pays ou d'individus ; les risques liés à une utilisation malveillante, facilitant les cyberattaques ou la mise au point de campagnes de désinformation sophistiquées ; ainsi que le désalignement et la perte de contrôle humain, alors que nous ignorons toujours comment contrôler de manière fiable les IA les plus avancées.

« Si les capacités des modèles d'IA continuent de dépasser les niveaux humains sans garanties scientifiques qu'ils soient sûrs et conformes à nos intentions, nous pourrions atteindre un point où l'IA fonctionnerait de manière irréversible, hors de tout contrôle, mettant ainsi l'humanité tout entière en danger ».

Investissement collectif

De son côté, Yejin Choi a plaidé pour que chacun, partout dans le monde, puisse participer à la création de l'IA, alors qu'aujourd'hui, seuls quelques-uns ont les ressources nécessaires pour créer cette technologie et en tirer profit.

La chercheuse a lancé un appel à un « investissement collectif audacieux » dans la science à haut risque et à haut rendement, à la construction d'une infrastructure publique et partagée et au renforcement des capacités grâce à des bourses d'études et à des échanges de chercheurs par-delà les frontières.

UNOG - United Nations Office at Geneva published this content on September 24, 2025, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on September 25, 2025 at 05:16 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]