Доклад «мозгового центра» об оружии «с мозгами»

Что может быть более пугающим, чем идея создать самостоятельно принимающую решение убить человека вооруженную машину. Эта тема лежит в основе сюжетов многих фантастических книг и фильмов. Связанные с этим опасения отражаются в растущих протестах против применения дронов, хотя боевыми дронами управляют операторы. С большой вероятностью автономные вооружения, будь-то запрограммированные самостоятельно нажимать на спусковой крючок орудийная башня или боевой робот, будут широко применяться в будущих войнах. Последний доклад исследовательского Центра по вопросам безопасности США стремится плавно подвести общество к пониманию подобных перспектив вооруженных мыслящих машин.

Роботизированная боевая машина армии США

Роботизированная боевая машина армии США

 

В докладе ставится несколько ключевых вопросов касательно роботов-убийц. Первый вопрос — о природе самой автономности машин. Автономность системы вооружения – это сложная и наиболее важная проблема в отношении того, что оставить под контролем человека и что позволить машине решать самостоятельно. Технический термин «замкнутая система» определяет степень вовлечённости человека в этот процесс, и человеческое звено в этой системе как раз и является самым важным элементом. К примеру, осуществляющий поиск целей робот, которому требуется разрешение от человека на открытие огня, отличается от самостоятельно принимающей такое решение на поле боя машины. В связи с этим военным экспертам, разработчикам робототехники, а также законодателям военного дела есть над чем серьёзно задуматься.

Авторы доклада Пол Шарр и Майкл Горовиц занимаются исследованиями замкнутых систем. Самостоятельно выбирающая цель ракета, которой нужно разрешение на ее поражение, считается «системой с участием человека», а выбирающая цель и самостоятельно атакующая машина – это уже «система без участия человека». Можно найти золотую середину, но она не будет работать для таких автоматических систем вооружения, как ракетная батарея системы противоракетной обороны со временем реагирования существенно меньшим человеческой реакции. Шарр и Горовиц рассматривают такое оружие как замкнутую систему с участием человека. В этом примере оружие может применяться без одобрения человека, но человек сохраняет возможность остановить последующую стрельбу.

Все зависит от степени автономности систем. Классификация оружия по степени автономности дает основание военным стратегам, законодателям и организациям по правам человека считать самыми опасными системы без участия человека. С учетом возрастающей роли боевых роботов в войнах будущего важно использовать единую терминологию для полного понимания их функций. Доклад «Основы автономности систем вооружения» не даёт ответы на все вопросы об отношении общественности и военных к автономным роботам, но предоставляет им полезный для последующих дебатов терминологический инструментарий.

Весь доклад вы найдете здесь (англ.).


1 балл2 балл3 балла4 балла5 балла (Голосов нет)
Loading...Loading...

Понравилась статья?
Поделись с друзьями!

x

Приглашаем к сотрудничеству всех, кто хочет попробовать свои силы в переводе. Пишите.
Система Orphus: Если вы заметили ошибку в тексте, выделите ее и нажмите Ctrl + Enter Система Orphus



Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *