Центр уведомлений

Пятница, 22 Июня

Погода

Сегодня °C
Завтра °C

Курс ЦБ РФ

Роботы-убийцы: за и против

28 Июня 2016

Роботы-убийцы: за и против

Технологии искусственного интеллекта становятся все более практичными, что позволяет использовать их в разработках автономных систем вооружения. Одна из главных тем, которая звучит в дебатах вокруг «робот-убийц», - потенциальная угроза, исходящая от машин.

В опасности автономного оружия абсолютно убеждены английский физик-теоретик Стивен Хокинг, утверждающий, что его недооценка может стать крупнейшей ошибкой в истории человечества, а также инженер и предприниматель Илон Маск, который говорит, что новые разработки могут оказаться даже пострашнее ядерного оружия. В Google не так давно вышло исследование, в центре внимания которого оказался механизм отключения боевых роботов, на случай если они начнут угрожать людям.
Чем иннновации могут обернуться на деле, пока мы знаем лишь из фантастической литературы и фильмов. Взять хотя бы Эда-209 из «Робота-полицейского», который застрелил безоружного человека, не заметив, что тот уже выбросил пистолет. Для дронов, которые применяются для авиаударов, пока еще требуются команды, для автономного оружия – нет. Неслучайно против боевых роботов сегодня развернулась масштабная международная кампания, которую курирует Human Rights Watch. Правозащитники убеждены, что автономное оружие приведет к массовым кровопролитиям, при этом военным удастся избежать ответственности. Однако есть у автономного оружия и ярые защитники. Так, аргументы в его пользу приводит бывший офицер британских ВВС и эксперт по международному праву Уильям Бутби. С некоторыми из них предлагаем ознакомиться.
1. На сегодняшний день уже есть боевые системы, которые при определенных условиях могут действовать автономно. Взять хотя бы «Фалангу» - зенитно-ракетный комплекс, стоящий на вооружении ВМС ряда стран, и израильскую систему ПРО «Железный купол». При правильной настройке с оборонительным оружием не должно возникнуть проблем, оно будет реагировать только на врага. А вот с наступательными системами дело обстоит сложнее, в том числе из-за выбора и оценки цели.
2.  Человечество в любом случае придет к тому, что автономные системы будут использоваться повсеместно – в воздухе, на суше и в воде. И в тех случаях, когда понадобится скорость, отказ контролировать машины будет оправдан. К примеру, солдату отдают приказ, осмотреть несколько домов, при этом он не знает, кто в них – террористы либо мирные жители. При любом шорохе он откроет огонь на поражение, а там вполне мог оказаться и человек, не представляющий никакой угрозы. Робот с сенсорами определит наличие или отсутствие оружия у обитателя дома. К тому же, у машин нет эмоций, они не паникуют и уж тем более не плачут.
3. Автономное оружие не запрещено международным правом. На него распространяются те же нормы, что и на остальное вооружение (к примеру, на оружие неизбирательного действия). Однако возникает вопрос, как применять к нему нормы, касающиеся обоснованности выбора цели, ведь решение об атаке будет принимать не человек, а машина.
4. Если системы будут верно настроены и использоваться только в разумных целях, будет меньше кровопролитий, потери среди гражданского населения сократятся. Совсем избежать жертв не получится, таковы правила войны.
5. Вопрос с ответственностью решается просто, отвечать за автономное оружие должны те, кто его создавал, настраивал и применял. Единственное, может возникнуть вопрос, понимает ли военный возможности и ограничения системы, но это, в принципе, касается любого высокотехнологичного оружия.
6. Представления о том, что допустимо, а что нет, меняются каждое столетие. На дворе 21 век. Автономная техника уже становится частью повседневной жизни, так почему же нельзя пойти дальше и распространить данный принцип и на автономное оружие?
7. Все-таки есть и ряд рисков. Автономное оружие может попасть в частные руки, его могут взломать и взять под контроль враги, а дальше наделить теми навыками, которые изначально не предуматривались. Но это уже вопрос к разработчикам, как настроить систему так, чтобы этого не случилось.

Назад в рубрику

Добавить комментарий

Комментарии могут добавлять только зарегистрированные пользователи

Зарегистрироваться