09/26/2025 | Press release | Distributed by Public on 09/26/2025 04:18
Господин Председатель,
Приветствуем решение Республики Корея провести в Совете Безопасности ООН открытые дебаты по такой важной сегодня для мира теме.
Наверное, ни дня не проходит без заголовков в прессе об очередном «прорыве» в использовании искусственного интеллекта.
Да, это так. Прогресс в этой области открывает до сих пор немыслимые перспективы развития практически по всем направлениям человеческой жизнедеятельности - в борьбе с изменением климата, голодом, неизлечимыми болезнями и так далее.
Однако, не все так радужно и обещающе, поскольку искусственный интеллект - это как пресловутый «меч о двух концах». В связи с этим хотелось бы выделить некоторые основные вызовы.
Первое. Попытки так называемого коллективного Запада исключить остальные страны из процессов развития и освоения искусственного интеллекта, полагая, что эта технология позволит ему обеспечить свое военное и экономическое превосходство.
По сути, в этой области создается новый «занавес» - на сей раз не идеологический, а технологический - «силиконовый», который должен разделить Запад и другой мир - Глобальное Большинство, и вернуть эти страны в новый неоколониализм. Убеждены, что это путь в никуда, если не в пропасть для всего человечества.
Искусственный интеллект должен быть достоянием для всех стран без исключения. Только так эта технология будет служить на благо мира и развития.
Второе. Применение ИИ в военной области. Неутихающие вооруженные конфликты способствуют опережающему развитию военных технологий. Современные конфликты - это войны беспилотных летательных аппаратов, высокоточного оружия и смертоносных автономных систем вооружений, которые могут обладать самообучающейся функцией, свойственной искусственному интеллекту.
Есть реальный риск, что алгоритмы ИИ в системах вооружений на определенном этапе станут самостоятельно принимать решения.
На этот счет снято немало технотриллеров - от «Военных игр», когда компьютерная игра чуть не приводит к запуску ядерных ракет, до «Терминатора», когда система «Скайнет» решает уничтожить человечество.
Недавно Президент Беларуси Александр Лукашенко отметил, что «Имея способность к самообучению, этот инструмент (ИИ) может погубить человечество, если выпустить его из-под контроля» . Об этом многие говорили в эти дни.
Это подводит нас к ключевому вопросу - ИИ должен быть подконтрольным человеку.
Третье. Этика искусственного интеллекта. Разработка ИИ должна быть направлена на улучшение жизни человека и сохранение его достоинства. Это означает, что технологии ИИ должны дополнять человеческие способности, а не заменять их полностью. Эта технология не должна дискриминировать человека. Необдуманное применение ИИ может иметь серьёзные социальные последствия.
В связи с этим должны быть четко определены механизмы ответственности за решения, принимаемые ИИ.
Правильным шагом в этом направлении рассматриваем недавнюю инициативу Китая о создании Всемирной организации сотрудничества в области искусственного интеллекта, которую Беларусь всецело поддерживает.
Нам всем чрезвычайно необходима такая площадка и насколько возможно скорее для выработки и согласования механизмов общего контроля за процессами развития ИИ.
Спасибо за внимание.
версия для печати