Russian English

Эксперты: Гражданское общество должно объединиться против роботов-убийц

10 июня в ИА «Росбалт» состоялась пресс-конференция «Игра без правил: роботы-убийцы или искусственный интеллект в военных технологиях».

В пресс-конференции приняли участие:
— Алена Попова, юрист, руководитель Аналитического центра «Этика и технологии» (Центр создан при поддержке НСМИИ РАН РФ);
— Давид Дубровский, доктор философских наук, профессор, главный научный сотрудник Института философии РАН, заместитель председателя НСМИИ РАН-научный совет по методологии искусственного интеллекта;
— Андрей Алексеев, доктор философских наук, ведущий научный сотрудник кафедры философии и методологии науки философского факультета МГУ имени М.В. Ломоносова, координатор научных программ НСМИИ РАН;
— Вадим Козюлин, директор проекта по новым технологиям и международной безопасности, ПИР-Центр;
— Андрей Юров, международный правозащитник, социальный философ, эксперт Московской Хельсинкской Группы, постоянный эксперт Совета по правам человека при президенте РФ, член правления Международной гражданской инициативы для ОБСЕ;
— Алимжан Ахметов, директор Центра международной безопасности и политики (Казахстан).

На площадке ООН на протяжении нескольких лет 88 стран мира пытаются договориться о полном запрете на разработку автономных летальных систем вооружения, которые называют «роботами-убийцами». Такие машины, когда или если они будут созданы, смогут самостоятельно принимать решения об убийстве человека, без контроля со стороны оператора. Нобелевские лауреаты, известные предприниматели, среди которых Илон Маск и Бил Гейтс, запустили кампанию против автономного оружия, считая его прямой угрозой человечеству. Многие страны — члены ООН готовы согласиться с полным запретом. И только США, Россия, Китай, Израиль, Великобритания, Южная Корея, а с недавних пор и Австралия, никак не могут договориться по этому вопросу, отметила на пресс-конференции юрист, руководитель Аналитического центра «Этика и технологии», созданного при поддержке НСМИИ РАН РФ, Алена Попова. По ее словам, российские производители оружия уже демонстрируют свои достижения в этой области, заявляя, что искусственный интеллект Россия встроит даже в мины.

Попова подчеркнула, что речь может идти о любом оружии, которое без участия человека способно принимать решение об убийстве. По ее мнению, появление такого оружия будет означать, что никто не сможет остановить его действия и повлиять на выбор цели. «Если в оружие заложен алгоритм, который определяет, что человек с палкой, находящийся в горячей точке, — враг, оно автоматически должно будет убить его, даже если человек бежит с палкой, освободившись из плена», — объяснила Попова.

Особенно это опасно, если учесть, что совершенные машины разрабатываются несовершенными существами — людьми, согласился международный правозащитник, социальный философ, эксперт МХГ, постоянный эксперт СПЧ, член правления Международной гражданской инициативы для ОБСЕ Андрей Юров. Программируя роботов-убийц, мы заложим в них свое видение, свои ошибки, и в результате эти машины тоже будут ужасно несовершенными, полагает он.

При этом до сих пор непонятно, кто будет нести ответственность в случае ошибки. «Мы не сможем привести в суд разработчика, который просто заложил в алгоритм возможность самообучаться, и не сможем заставить алгоритм отвечать за потерю кормильца», — считает директор проекта по новым технологиям и международной безопасности, ПИР-Центр Вадим Козюлин.

Эксперты задаются вопросом о том, сможем ли мы вообще понять, кто направил роботов-убийц. Возможно, это было другое государство, а может их по пути взломала преступная группировка или какой-нибудь гениальный школьник.

«Если у нас есть возможность заранее договориться, как это должно быть оформлено в международном праве, давайте до этих пор воздержимся от разработки, и договоримся, какие виды оружия можно создавать», — заметил Андрей Юров. Правозащитник подчеркнул, что роботов-убийц в некотором смысле можно сравнить с пехотными минами, на которых, как известно, взрываются преимущественно дети.

Алена Попова напомнила, что ослепляющий лазер запретили как раз на этапе разработки. По ее словам, это пример того, что страны могут договориться. Когда разработка роботов-убийц войдет в активную фазу, процесс уже будет не остановить, и договариваться никто не будет», — отметила она.

При этом, запретить уже созданный алгоритм будет куда сложнее, чем ослепляющий лазер, подчеркнул директор Центра международной безопасности и политики (Казахстан) Алимжан Ахметов.

Юров в свою очередь считает, что ждать, когда страны-разработчики такого оружия договорятся о его запрете, не стоит. По его мнению, противостоять этой угрозе может только мировое гражданское общество, а для этого ему придется очень быстро повзрослеть и объединиться.

Страна: