Россия и Китай могут вынудить Запад пересмотреть свою политику в области применения ИИ в военных целях

Группа китайских подростков 31 октября прошлого года сделала доклад в Пекинском технологическом институте, одном из ведущих исследовательских учреждений страны. Китайские власти надеются, что одаренные молодые люди, отобранные более чем из пяти тысяч претендентов, разработают новое поколение систем вооружений с искусственным интеллектом, которые могут варьироваться от микроскопических роботов до компьютерных червей, подводных лодок, беспилотных аппаратов и танков.

Эта программа является мощным индикатором приближения того, что с большой вероятностью станет определяющей гонкой вооружений XXI века, по мере того, как растущие вычислительные мощности и программы машинного обучения создают новые возможности в военной сфере и в области государственного управления.

Это сфера, в которой технологии сегодня, возможно,  опережают стратегическое, этическое и политическое мышление. Однако именно здесь борьба за «необработанный» человеческий талант может быть столь же важной, как приобретение необходимого компьютерного оборудования и программного обеспечения.

По оценкам компании Consultancy PwC, к 2030 году на продукты и системы искусственного интеллекта будет приходиться до 15, 7 триллионов долларов глобального ВВП, причем, двумя ведущими странами станут, вероятно, Китай и Соединенные Штаты. Как бы то ни было, именно потенциальные военные последствия вызывают у правительств наибольшую тревогу и страх перед своим отставанием, а также заставляют их нервничать из-за того, что непроверенные технологии могут принести новые опасности.

В Соединенных Штатах руководители Пентагона попросили Совет по военным инновациям – собрание высокопоставленных фигур, представляющих технологические компании из Силиконовой долины, которые дают американским военным технические консультации – предложить набор этических принципов использования искусственного интеллекта в войне.

В прошлом месяце Франция и Канада заявили о том, что создают международную группу для обсуждения, в общем-то, аналогичных вопросов. До сих пор западные  государства придерживались мнения, что решения о жизни и смерти в военном конфликте всегда должны приниматься людьми, а компьютеры и алгоритмы призваны просто обеспечивать эффективное исполнение этих решений.

Тем временем, другие страны, прежде всего Россия и Китай, «заигрывают» с совершенно иной концепцией использования ИИ в военных целях. Россия, которая в прошлом году объявила об удвоении объема инвестиций в ИИ, в начале января проинформировала международное сообщество о том, что к середине 2019 года опубликует новую «дорожную карту» национальной стратегии в сфере искусственного интеллекта.

Российские официальные лица утверждают, что они считают ИИ ключом к доминированию в киберпространстве и информационных операциях. Примечательно, что якобы существующие российские «фабрики компьютерных троллей», как полагают некоторые, уже используют автоматизированные ленты новостей в социальных сетях для продвижения дезинформации на основе применения искусственного интеллекта.

Пекин, по мнению многих экспертов, еще более значительно продвинулся в развитии ИИ, причем некоторые из  них склонны считать, что он уже опередил Соединенные Штаты. Мастерство в сфере искусственного интеллекта в сущности сводится к наличию достаточной вычислительной мощности, достаточного количества данных для изучения и человеческого таланта для того, чтобы привести эти системы в действие.

Самые могущественные авторитарные государства в мире, Россия и Китай, обладают такими возможностями и намерениями. Обе страны используют ИИ, как для поддержания власти внутри страны, так и для победы над внешними врагами.

Соединенные Штаты и их союзники все еще исследуют и создают свое собственное автономное оружие. Когда речь идет о беспилотных летательных аппаратах, западные политики обычно с удовольствием предоставляют беспилотным системам право принимать собственные решения. Но когда дело доходит до убийства людей, политика Министерства обороны США, например, требует, чтобы человек обязательно был «в курсе».

Проблема в том, что с  развитием технологий соблюдать это требование становится все труднее, поскольку в подобной ситуации автоматизированные системы противника выносят решение гораздо быстрее, чем способен это сделать человек.

Поделиться...
Share on VK
VK
Tweet about this on Twitter
Twitter
Share on Facebook
Facebook
0

Добавить комментарий