Реальна ли опасность «Робокалипсиса»?

Источник перевод для mixednews – Света Гоголь

23.02.2012

Человеческая цивилизация, гибнущая в схватке с бездушными машинами – этот популярный и на редкость благодарный сюжет кинопромышленность давно эксплуатирует и в хвост и в гриву.

«Терминатор» и «Матрица» предрекают нашему роду кончину от искусственного интеллекта, получившего чересчур большую свободу.

Учитывая темпы технологического развития, можем ли мы считать сценарий типа «Робокалипсис» таким уж невероятным? Может, наоборот, пророческим?

Прогноз на будущее планеты может быть диаметрально противоположным. Всё зависит от того, кого вы спросите.

Большинство учёных склоняется к тому, что взаимоотношения человека и машины в будущем будут скорее гармоничными, чем враждебными.

И, тем не менее,  вероятность сценария, при котором небиологические существа начнут нас истреблять, всё-таки остаётся.

«Уже существующие технологии вполне могут выстроить систему, способную уничтожить  всю Землю, намеренно или ненамеренно», — считает профессор компьютерных наук Шломо Зильберштейн из Массачусетского университета.

Машины к нашим услугам

Давайте, для начала, рассмотрим оптимистичный вариант: машины всегда будут нашими слугами, и не более того.

«У нас есть один выход – отказаться от создания систем, которые могут стать опасными, если выйдут из-под контроля», — уверен Зильберштейн.

Например, уже сейчас возможно появление автоматической оборонной системы Skynet, которая в фильме «Терминатор» решила погубить всё человечество.

Почему подобная система до сих пор не построена? Причина серьёзная: ядерные державы, такие как Соединённые Штаты, не захотят переложить на компьютер ответственность за запуск боеголовок.

«А вдруг система будет заражена вирусом? Никому не нужен такой риск»

Самостоятельность в меньшем масштабе, но всё равно довольно серьёзная,  предоставлена сегодня, например, хищным беспилотникам, которые используются на Ближнем Востоке.

«Количество роботизированных систем, которые действительно могут активироваться по собственному усмотрению, растёт с каждым днём».

Тем не менее, за беспилотниками зорко следят операторы и последнее слово —  нанести удар или нет — всё ещё остаётся за ними.

Так что нам ещё далеко до Skynet,  которому в «Терминаторе» был предоставлен контроль за всем ядерным арсеналом Америки.

В «Терминаторе» военные создают программу с целью устранить опасность человеческой ошибки или его недостаточно оперативной реакции в случае нападения на США.

Когда люди-операторы наконец понимают, что реальная опасность исходит от всесильной Skynet, они пытаются остановить систему. Та, в свою очередь, интерпретирует вмешательство как угрозу своему существованию, наносит удар по России, провоцируя  ответный удар. Миллиарды людей гибнут, а Skynet организует строительство фабрик по производству армии роботов, чтобы избавиться от остатков человеческого рода.

В реальном мире, по мнению Зильберштейна, простые меры безопасности предотвратят появление угрозы для человека, во всяком случае, если такая угроза не предусмотрена разработчиками – если они охраняют границы, например.

Плюс к этому, возможность принимать масштабные стратегические решения не должна быть заложена ни в одной из систем.

«Роботы будущего будут обладать специфическими возможностями. Они смогут следить за обстановкой в регионе и даже, может быть, наносить удары, но полностью заменить человека – ни в коем случае».

Роботы выходят из-под контроля

Коллега Зильберштейна из Университета Калифорнии  Майкл Дайер не разделяет такого оптимизма. Он полагает, что «машины неизбежно заменят людей» — и процесс замены вовсе не обязательно будет мирным.

Успехи науки в области создания искусственного интеллекта приведут к появлению машин, не уступающих нам «умом и сообразительностью» в течение пары сотен лет, предсказывает Дайер.

«Мы достигли точки, когда научились понимать, как работает наш мозг, и недалёк тот день, когда мы создадим синтетическую версию самих себя». Кто откажется провести вечность в практичной искусственной оболочке?

Перспектива обрести бессмертие слишком соблазнительна, чтобы мы могли добровольно от неё отказаться.

Подобный переход от биологического мира к технологическому кажется достаточно гладким.

Куда менее привлекательным представляется другой возможный сценарий «восстания машин».

Дайер предполагает, что новая гонка роботизированных вооружений может обернуться катастрофой. Как и Skynet, изобретение может пойти против своего изобретателя.

Или, казалось бы, безобидная ситуация: Завод  по производству роботов перестаёт подчиняться человеческим командам. Руководство решает отключить его от электропитания. «Но, к сожалению, электростанция тоже управляется роботами, и они тоже отказываются подчиниться. Люди пытаются остановить грузовики, доставляющие на завод необходимые материалы. Но водители грузовиков тоже роботы — и опять ничего не выходит»

Не так уж невероятно, что искусственный разум при помощи интернета сможет лишить человека его господствующего положения, если общество слишком сильно будет зависеть от автоматических систем.

В целом, немного мудрости предотвратит человеческий род от ловушек, сочинённых голливудскими сценаристами. Но хорошие прибыли – серьёзный мотив, который заставляет компании автоматизироваться всё больше и больше, а опыт показывает, что рациональные решения побеждают далеко не всегда.

«Слишком много вариантов развития событий могут закончиться «Судным днём». И я не исключаю возможности его наступления, — говорит Зильберштейн. – Хотя лично меня это не очень беспокоит».

Поделиться...
Share on VK
VK
Tweet about this on Twitter
Twitter
Share on Facebook
Facebook
0

2 Replies to “Реальна ли опасность «Робокалипсиса»?

  1. Вот люблю буквалистов, рассуждающих о несуществующем…. Ребят, ну ведь режиссеры в Голливуде (особенно братки Ваховские) не идиоты и хотели сказать что-то важное вовсе не о каких-то фантастических машинах. А, может, речь идет о реальном искуственном интелекте, который вовсю орудует на планете и развязывает войны — транснациональные корпорации, ротшильды и пр. тематика сайта миксед ньюс? Например… Так что ответ на вопрос статьи «реальна ли опасность…» ответ очевиден: РЕАЛЬНА И ВЕСЬМА! Потому что ДУРАК с механическим мышлением, да еще при власти всегда опасен, потому что и является РОБОТОМ (в исходном смысле этого слова, как у Чапека)

  2. Без мотивировки дальнейшего развития, ни один ИИ не будет развиваться. У роботов нет мотивов как у человека. Развивающейся цивилизации роботов не будет! Главный человеческий раздражитель — смерть и продолжение рода.

Добавить комментарий