Ministry of Foreign Affairs of the Republic of Belarus

09/26/2025 | Press release | Distributed by Public on 09/26/2025 04:18

Выступление Министра иностранных дел Республики Беларусь М.Рыженкова на открытых дебатах Совета Безопасности ООН (25 сентября 2025 г., г.Нью-Йорк)

  • Главная /
  • Пресс-служба /
  • Новости /

Выступление Министра иностранных дел Республики Беларусь М.Рыженкова на открытых дебатах Совета Безопасности ООН (25 сентября 2025 г., г.Нью-Йорк)

26 сентября 2025 г.

Господин Председатель,

Приветствуем решение Республики Корея провести в Совете Безопасности ООН открытые дебаты по такой важной сегодня для мира теме.

Наверное, ни дня не проходит без заголовков в прессе об очередном «прорыве» в использовании искусственного интеллекта.

Да, это так. Прогресс в этой области открывает до сих пор немыслимые перспективы развития практически по всем направлениям человеческой жизнедеятельности - в борьбе с изменением климата, голодом, неизлечимыми болезнями и так далее.

Однако, не все так радужно и обещающе, поскольку искусственный интеллект - это как пресловутый «меч о двух концах». В связи с этим хотелось бы выделить некоторые основные вызовы.

Первое. Попытки так называемого коллективного Запада исключить остальные страны из процессов развития и освоения искусственного интеллекта, полагая, что эта технология позволит ему обеспечить свое военное и экономическое превосходство.

По сути, в этой области создается новый «занавес» - на сей раз не идеологический, а технологический - «силиконовый», который должен разделить Запад и другой мир - Глобальное Большинство, и вернуть эти страны в новый неоколониализм. Убеждены, что это путь в никуда, если не в пропасть для всего человечества.

Искусственный интеллект должен быть достоянием для всех стран без исключения. Только так эта технология будет служить на благо мира и развития.

Второе. Применение ИИ в военной области. Неутихающие вооруженные конфликты способствуют опережающему развитию военных технологий. Современные конфликты - это войны беспилотных летательных аппаратов, высокоточного оружия и смертоносных автономных систем вооружений, которые могут обладать самообучающейся функцией, свойственной искусственному интеллекту.

Есть реальный риск, что алгоритмы ИИ в системах вооружений на определенном этапе станут самостоятельно принимать решения.

На этот счет снято немало технотриллеров - от «Военных игр», когда компьютерная игра чуть не приводит к запуску ядерных ракет, до «Терминатора», когда система «Скайнет» решает уничтожить человечество.

Недавно Президент Беларуси Александр Лукашенко отметил, что «Имея способность к самообучению, этот инструмент (ИИ) может погубить человечество, если выпустить его из-под контроля» . Об этом многие говорили в эти дни.

Это подводит нас к ключевому вопросу - ИИ должен быть подконтрольным человеку.

Третье. Этика искусственного интеллекта. Разработка ИИ должна быть направлена на улучшение жизни человека и сохранение его достоинства. Это означает, что технологии ИИ должны дополнять человеческие способности, а не заменять их полностью. Эта технология не должна дискриминировать человека. Необдуманное применение ИИ может иметь серьёзные социальные последствия.

В связи с этим должны быть четко определены механизмы ответственности за решения, принимаемые ИИ.

Правильным шагом в этом направлении рассматриваем недавнюю инициативу Китая о создании Всемирной организации сотрудничества в области искусственного интеллекта, которую Беларусь всецело поддерживает.

Нам всем чрезвычайно необходима такая площадка и насколько возможно скорее для выработки и согласования механизмов общего контроля за процессами развития ИИ.

Спасибо за внимание.

версия для печати

  • Twitter
  • Р'РљРѕРЅС'акС'Рµ
Ministry of Foreign Affairs of the Republic of Belarus published this content on September 26, 2025, and is solely responsible for the information contained herein. Distributed via Public Technologies (PUBT), unedited and unaltered, on September 26, 2025 at 10:18 UTC. If you believe the information included in the content is inaccurate or outdated and requires editing or removal, please contact us at [email protected]