Роботы-убийцы и искусственный интеллект: каким будет оружие будущего

Летальное автономное оружие уже активно применяется в войнах, а в будущем может играть ключевую роль в обороне и атаках

Роботов-убийц будущего обычно изображают агрессивными человекообразными железяками, вроде Терминатора. Однако автономное оружие с искусственным интеллектом уже активно применяется в войнах, в том числе и в российско-украинской. Однако что делать, чтобы это оружие не стало очередным изобретением человечества, которое лучше бы никогда не создавали? Этим вопросом обеспокоены Миранда Моубрей и Джонатан Эрскин, преподавательница и аспирант по интерактивному искусственному интеллекту Бристольского университета.

Оригинал их статьи был опубликован на the Conversation, перевод подготовили Новини.LIVE.

Что роботы-убийцы означают для будущей войны

Вы могли слышать о роботах-убийцах, убойных роботах или терминаторах — официально это называется летальным автономным оружием (ЛАО) — из фильмов и книг. Идея о том, что суперинтеллектуальное оружие будет бесчинствовать, все еще остается научной фантастикой. Но по мере того, как оружие с искусственным интеллектом становится все более совершенным, растет обеспокоенность общественности по поводу отсутствия подотчетности и риска технических сбоев.

Мы уже видели, как так называемый нейтральный искусственный интеллект (ИИ) создавал сексистские алгоритмы и неумелые системы модерации контента, в основном потому, что их создатели не понимали технологии. Но на войне такие недоразумения могут привести к гибели гражданских или срыву переговоров.

К примеру, благодаря методу распознавания целей можно научить распознавать танки на спутниковых снимках. Но что если на всех снимках, использованных для обучения системы, изображены солдаты в строю вокруг танка? Система может принять гражданский автомобиль, что проезжает через военный блокпост, за цель.

Зачем нам нужно автономное оружие

Гражданское население многих стран (таких как Вьетнам, Афганистан и Йемен) страдает от того, как мировые сверхдержавы создают и используют все более совершенное оружие. Многие утверждают, что они принесли больше вреда, чем пользы, и последним примером этого является российское вторжение в Украину в начале 2022 года.

В другом лагере есть люди, которые говорят, что страна должна быть способна защитить себя, а значит, она должна идти в ногу с военными технологиями других стран. ИИ уже может перехитрить человека в шахматах и покере. Он превосходит людей и в реальном мире. Например, Microsoft утверждает, что программное обеспечение для распознавания языка имеет уровень ошибок 1% по сравнению с человеческими ошибками, которые составляют около 6%. Неудивительно, что армии постепенно передают алгоритмам бразды правления.

Но как нам избежать добавления роботов-убийц в длинный список вещей, которые мы хотели бы никогда не изобретать? Прежде всего: знай своего врага.

Что такое летальное автономное оружие (ЛАО)

Министерство обороны США дает следующее определение автономной системы вооружения: "Система вооружения, которая после активации может выбирать и поражать цели без дальнейшего вмешательства человека-оператора".

Многие боевые системы уже отвечают этому критерию. Компьютеры на беспилотниках и современных ракетах обладают алгоритмами, которые могут обнаруживать цели и вести огонь по ним с гораздо большей точностью, чем человек-оператор. Израильский "Железный купол" — одна из нескольких систем активной обороны, которые могут поражать цели без присмотра человека.

Хотя "Железный купол" предназначен для противоракетной обороны, он может случайно убить людей. Но этот риск считается приемлемым в международной политике, поскольку "Железный купол" имеет надежную историю защиты жизни гражданского населения.

"Железный купол". Фото: Wikimedia commons

Существует оружие с искусственным интеллектом, предназначенное для нападения на людей — от роботов-стражей до беспилотников-камикадзе, которые используются в войне в Украине. ЛАО уже здесь. Итак, если мы хотим влиять на их использование, мы должны понимать историю современного оружия.

Правила войны

Международные соглашения, такие как Женевские конвенции, устанавливают правила обращения с военнопленными и гражданскими лицами во время конфликта. Они являются одним из немногих инструментов, которыми мы располагаем для контроля за ведением войн. К сожалению, применение химического оружия США во Вьетнаме и россией в Афганистане является доказательством того, что эти меры не всегда успешны.

Хуже, когда ключевые игроки отказываются подписываться. Международная кампания за запрет наземных мин (МКЗНМ) с 1992 года лоббирует среди политиков запрет мин и кассетных боеприпасов, которые хаотично разбрасывают маленькие бомбы на большой площади. В 1997 году Оттавское соглашение включало запрет этого оружия, которое подписали 122 страны. Но США, Китай и россия не присоединились к нему.

Начиная с 2015 года, от наземных мин получали ранения и погибали по меньшей мере 5000 военнослужащих и гражданских лиц ежегодно, а в 2017 году — 9440 человек. Об этом говорится в отчете "Мониторинг наземных мин и кассетных боеприпасов 2022 года":

"Потери были тревожно высокими за последние семь лет, после более чем десятилетия исторического сокращения. 2021 год не стал исключением. Эта тенденция в значительной степени является результатом усиления конфликтов и загрязнения местности самодельными минами, что наблюдается с 2015 года. Большинство зарегистрированных жертв — гражданские лица, половина из которых — дети."

Наше будущее

Но как насчет более совершенного оружия с искусственным интеллектом? Кампания "Остановить роботов-убийц" перечисляет девять ключевых проблем, связанных с законами об оружии, сосредотачиваясь на отсутствии подотчетности и дегуманизации убийства.

Фото: Wikimedia commons

Хотя эта критика справедлива, полный запрет ЛАО нереален по двум причинам. Во-первых, как и в случае с минами, ящик Пандоры уже открыт. Кроме того, границы между автономным оружием, ЛАО и роботами-убийцами настолько размыты, что их трудно различить. Военные лидеры всегда смогут найти лазейку в формулировке запрета и принять роботов-убийц на вооружение как оборонное автономное оружие. Они могут даже делать это неосознанно.

В будущем мы почти наверняка увидим больше оружия с искусственным интеллектом. Но это не значит, что мы должны смотреть на это сквозь пальцы. Более конкретные и подробные запреты помогут сделать наших политиков, исследователей данных и инженеров подотчетными.

Например, путем запрета:

  • ИИ "черного ящика": систем, в которых пользователь не имеет никакой информации об алгоритме, кроме входов и выходов,
  • ненадежных ИИ: систем, которые были плохо протестированы.

И вам не обязательно быть экспертом в области искусственного интеллекта, чтобы иметь представление о законах. Будьте в курсе новых разработок военного ИИ. Когда вы читаете или слышите об использовании ИИ в бою, спросите себя: оправдано ли это? Защищает ли он жизнь гражданских? Если нет, то присоединяйтесь к сообществам, которые работают над контролем над этими системами. Вместе у нас есть шанс не допустить, чтобы искусственный интеллект принес больше вреда, чем пользы.

Джонатан Эрскин, аспирант по интерактивному ИИ, Бристольский университет

Миранда Моубрей, преподаватель по интерактивному ИИ, Бристольский университет