Роботи-вбивці і штучний інтелект: якою буде зброя майбутнього

Роботи-вбивці і штучний інтелект: якою буде зброя майбутнього
Летальна автономна зброя вже активно застосовується у війнах, а в майбутньому може відігравати ключову роль в обороні та атаках

Роботів-вбивць майбутнього зазвичай зображають агресивними людиноподібними залізяками, на кшталт Термінатора. Однак автономна зброя зі штучним інтелектом вже активно застосовується у війнах, зокрема і в російсько-українській. Однак що робити, щоб ця зброя не стала черговим винаходом людства, який краще б ніколи не створювали? Цим питанням занепокоєні Міранда Моубрей та Джонатан Ерскін, викладачка та аспірант з інтерактивного штучного інтелекту Брістольського університету.

Оригінал їхньої статті опубліковано на the Conversation, переклад підготували Новини.LIVE.

Що роботи-вбивці означають для майбутнього війни

Ви могли чути про роботів-вбивць, забійних роботів або термінаторів — офіційно називається летальною автономною зброєю (ЛАЗ) — з фільмів і книг. А ідея про те, що суперінтелектуальна зброя буде безчинствувати, усе ще залишається науковою фантастикою. Але в міру того, як зброя зі штучним інтелектом стає все більш досконалою, зростає занепокоєння громадськості щодо відсутності підзвітності та ризику технічних збоїв.

Ми вже бачили, як так званий нейтральний штучний інтелект (ШІ) створював сексистські алгоритми та невмілі системи модерації контенту, здебільшого через те, що їхні творці не розуміли технології. Але на війні такі непорозуміння можуть призвести до загибелі цивільних або зриву переговорів.

Наприклад, завдяки алгоритму розпізнавання цілей можна навчити розпізнавати танки на супутникових знімках. Але що, якщо на всіх знімках, використаних для навчання системи, зображені солдати в строю навколо танка? Система може прийняти цивільний автомобіль, що проїжджає через військовий блокпост, за ціль.

Навіщо нам потрібна автономна зброя

Цивільне населення багатьох країн (таких як В'єтнам, Афганістан і Ємен) страждає від того, як світові наддержави створюють і використовують дедалі досконалішу зброю. Багато хто стверджує, що вони принесли більше шкоди, ніж користі, і останнім прикладом цього є російське вторгнення в Україну на початку 2022 року.

В іншому таборі є люди, які кажуть, що країна повинна бути здатна захистити себе, а це означає, що вона повинна йти в ногу з військовими технологіями інших країн. ШІ вже може перехитрити людину в шахах і покері. Він перевершує людей і в реальному світі. Наприклад, Microsoft стверджує, що їхнє програмне забезпечення для розпізнавання мови має рівень помилок 1% порівняно з людськими помилками, які становлять близько 6%. Тож не дивно, що армії поступово передають алгоритмам кермо влади.

Але як нам уникнути додавання роботів-вбивць до довгого списку речей, які ми хотіли б ніколи не винаходити? Перш за все: знай свого ворога.

Що таке летальна автономна зброя (ЛАЗ)

Міністерство оборони США дає таке визначення автономної системи озброєння: "Система озброєння, яка після активації може вибирати і вражати цілі без подальшого втручання людини-оператора".

Багато бойових систем вже відповідають цьому критерію. Комп'ютери на безпілотниках і сучасних ракетах мають алгоритми, які можуть виявляти цілі і вести вогонь по них з набагато більшою точністю, ніж людина-оператор. Ізраїльський "Залізний купол" — одна з кількох систем активної оборони, які можуть вражати цілі без нагляду людини.

Хоча "Залізний купол" призначений для протиракетної оборони, він може випадково вбити людей. Але цей ризик вважається прийнятним у міжнародній політиці, оскільки "Залізний купол" загалом має надійну історію захисту життя цивільного населення.

Залізний купол
"Залізний купол". Фото: Wikimedia commons

Існує зброя зі штучним інтелектом, призначена для нападу на людей — від роботів-вартових до безпілотників-камікадзе, які використовуються у війні в Україні. ЛАЗи вже тут. Отже, якщо ми хочемо впливати на використання ЛАЗів, ми повинні розуміти історію сучасної зброї.

Правила війни

Міжнародні угоди, такі як Женевські конвенції, встановлюють правила поводження з військовополоненими та цивільними особами під час конфлікту. Вони є одним з небагатьох інструментів, які ми маємо для контролю над веденням воєн. На жаль, застосування хімічної зброї США у В'єтнамі та росією в Афганістані є доказом того, що ці заходи не завжди є успішними.

Гірше, коли ключові гравці відмовляються підписуватися. Міжнародна кампанія за заборону наземних мін (МКЗНМ) з 1992 року лобіює серед політиків заборону мін і касетних боєприпасів, які хаотично розкидають маленькі бомби на великій площі. У 1997 році Оттавська угода включала заборону цієї зброї, яку підписали 122 країни. Але США, Китай і росія не приєдналися до нього.

Починаючи з 2015 року, від наземних мін отримували поранення і гинули щонайменше 5000 військовослужбовців і цивільних осіб щороку, а у 2017 році — 9440 осіб. Про це йдеться у звіті "Моніторинг наземних мін та касетних боєприпасів 2022":

"Втрати були тривожно високими протягом останніх семи років, після більш ніж десятиліття історичного скорочення. 2021 рік не став винятком. Ця тенденція значною мірою є результатом посилення конфліктів та забруднення місцевості саморобними мінами, що спостерігається з 2015 року. Більшість зареєстрованих жертв — цивільні особи, половина з яких — діти."

Наше майбутнє

Але як щодо більш досконалої зброї зі штучним інтелектом? Кампанія "Зупинити роботів-вбивць" перераховує дев'ять ключових проблем, пов'язаних із законами про зброю, зосереджуючись на відсутності підзвітності та дегуманізації вбивства.

Stop robot killers
Фото: Wikimedia commons

Хоча ця критика справедлива, повна заборона ЛАЗів є нереальною з двох причин. По-перше, як і у випадку з мінами, скринька Пандори вже відкрита. Окрім того, межі між автономною зброєю, ЛАЗ і роботами-вбивцями настільки розмиті, що їх важко розрізнити. Військові лідери завжди зможуть знайти лазівку у формулюванні заборони і прийняти роботів-вбивць на озброєння як оборонну автономну зброю. Вони можуть навіть робити це несвідомо.

У майбутньому ми майже напевно побачимо більше зброї зі штучним інтелектом. Але це не означає, що ми повинні дивитися на це крізь пальці. Більш конкретні та детальні заборони допоможуть зробити наших політиків, дослідників даних та інженерів підзвітними.

Наприклад, шляхом заборони:

  • ШІ "чорної скриньки": систем, в яких користувач не має жодної інформації про алгоритм, окрім входів і виходів
  • ненадійних ШІ: систем, які були погано протестовані.

І вам не обов'язково бути експертом у галузі штучного інтелекту, щоб мати уявлення про закони. Будьте в курсі нових розробок військового ШІ. Коли ви читаєте або чуєте про використання ШІ в бою, запитайте себе: чи це виправдано? Чи захищає він життя цивільних? Якщо ні, то долучайтеся до спільнот, які працюють над контролем над цими системами. Разом у нас є шанс не допустити, щоб штучний інтелект приніс більше шкоди, ніж користі.

The Conversation

Джонатан Ерскін, аспірант з інтерактивного ШІ, Брістольський університет

Міранда Моубрей, викладач з інтерактивного ШІ, Брістольський університет

Актуальне по темі

Благодійний фонд 'Майбутнє для України'
Children Hub

Children Hub — безпечний простір для адаптації українських дітей-переселенців у країнах ЄС

Понад тисяча дітей віком від 3 до 15 років щомісяця відвідує безкоштовні заняття у Варшаві

Допомогти розвивати CHILDREN HUB