Вирішення етичних питань сучасної війни штучного інтелекту

Використання штучного інтелекту на війні – лише питання часу. Але це має регулюватися з точки зору міжнародного гуманітарного права

У це важко повірити, але смартфон у вашій руці має більшу обчислювальну потужність, ніж Eurofighter. Це зміниться через такі ініціативи, як спільна франко-іспансько-німецька бойова повітряна система майбутнього (FACS). Але суть залишається незмінною: вже давно технологічні інновації не є вулицею з одностороннім рухом, як колись, від військового до цивільного використання; радше, поштовх йде в обох напрямках. Зрештою, цивільні ринки є гігантськими і лідирують у своїх військових. Отже, у збройних силах зараз говорять про об’єднання ресурсів: це означає об’єднання як союзні країни для об’єднання військ, зброї та резервістів. Таке об’єднання також означає використання великої кількості даних – даних, які необхідно створювати, фіксувати, обмінювати та оцінювати, щоб зробити далекосяжні висновки.

Проте, незважаючи на те, що всі способи ведення війни змінюються, класичні змінні – вогнева міць і мобільність – залишаються ключовими. Перший, після розробки сучасних вибухових речовин і, перш за все, ядерної зброї, практично досяг своїх фізичних меж; однак останнє наразі набуває все більшого значення, оскільки оцифрування та автоматизація відкривають абсолютно нові можливості. Це, у свою чергу, створює нові виклики для військової розвідки, оскільки на завтрашньому полі бою позиції противника – і позиції його власних військ – постійно змінюватимуться. Якщо ІТ-системи не будуть тісно пов’язані між собою та не використовуватимуться розумно, армії опиняться в непроникному тумані даних; але якщо все піде добре, повний набір усіх даних поля бою в реальному часі щодо ворожих засобів буде об’єднано, класифіковані, а потім негайно спрямовані до систем озброєння, які найкраще підходять для ураження. Знову ж таки, будь-який рівний ворог робитиме точно те саме на своєму кінці, а це означає, що частки секунди стануть вирішальними. Тут, коли мова заходить про ідентифікацію та знищення ворожих цілей, центральне місце займатиме штучний інтелект (ШІ), який значно перевершує будь-яку людину-користувача зброєю. Особливо в системах раннього попередження, розгорнутих у відповідь на ядерні загрози, наслідки можуть бути драматичними.

Швидкість проти контролю

У результаті ті, хто будує та адмініструє подібні «системи систем», стикаються з дилемою. Або вони зміцнюють свої системи, запроваджуючи високий ступінь автоматичного функціонування, таким чином максимально використовуючи свою потенційну швидкість реакції, але жертвуючи потенціалом контролю, адміністрування та, якщо потрібно, реконфігурації; або вони обирають слабші, повільніші системи, включаючи інтерфейси, які дозволяють операторам втручатися в процеси, отримуючи потужність і гнучкість у тому, як вони працюють. Цю напругу між швидкістю та контролем можна розв’язати, лише використовуючи термін «система систем» за тим, що він означає: у майбутньому, і знову в ідеальному положенні, на кожному етапі конфлікту,

Кожен має знати, що надійність такого типу системи залежить від технічних обмежень і може забезпечити лише високу ймовірність успіху, а не гарантію.

Отже, які наслідки? На конкретному прикладі: які саме гіперзвукові ракетимає у своєму розпорядженні супротивник і чи є взагалі збройний конфлікт із цим супротивником, визначається на політико-стратегічному рівні. На оперативному рівні параметри для виявлення цих ракет точно визначені, щоб у разі виникнення конфлікту гіперзвукова зброя була ідентифікована до або, найпізніше, коли вона наближається до нашого повітряного простору, а потім нейтралізується. На тактичному рівні системи тренуються за цими параметрами, що дозволяє їм ідентифікувати та, не потребуючи додаткового дозволу, збивати гіперзвукові ракети противника. Проте кожен має знати, що надійність такого типу системи залежить від технічних обмежень і може забезпечити лише високу ймовірність успіху, а не гарантію.

Щоб зберегти перевагу швидкості реагування на тактичному рівні, оперативний порядок відкриття вогню повинен бути повністю приписаний до тактичного рівня. Цього можна досягти без ризику втрати контролю, якщо технічні параметри для відкриття вогню визначені та встановлені до початку бою – і якщо ці технічні параметри пізніше можуть бути скориговані у відповідь на зміни в способі оцінки ситуації. Аналогічно, такий самий зв’язок має застосовуватися до того, як оперативний рівень взаємодіє зі стратегічним рівнем. Це виглядало б так: вищому військовому командуванню, яке знаходиться на вершині системи систем, потенційно допомагав би штучний інтелект в аналізі, оптимізації та стабілізації прийняття рішень на театрі бойових дій і на рівні бою на основі оперативної ситуації; ця ситуація також використовуватиметься для визначення налаштувань для адміністрування та навчання програм штучного інтелекту, які керують вогнем на тактичному рівні – переконавшись, що зазначений вогонь досягає своєї цілі, тобто позицій і засобів противника. Ступінь, до якого вся ця система працює, значною мірою залежить від здатності її складових систем як у центрі, так і на периферії спілкуватися таким чином, щоб система в цілому оптимально реагувала на зміни умов і факторів впливу.

Вирішення етичних проблем

З огляду на це, розробка систем озброєнь, що підтримуються штучним інтелектом, через сумнів у встановлених ланцюгах військового командування та політичного керівництва вже створює серйозні етичні проблеми – проблеми, до яких гуманітарні міркування та обмеження міжнародного права додають додаткові виміри, оскільки досі існує не передбачено AI. На сьогоднішній день переговори про розширення рамок договору ООН про контроль над озброєннями CCW (Конвенція про певні види звичайної зброї) для охоплення ШІ ніколи не виходили за межі питання визначення «контролю людини». Проте, якщо розглядати це раціонально, це не є нерозв’язним завданням.

Для початку краще уникати перевантаженого терміну «автономний»: це тому, що «слабкий ШІ» не приймає рішень і/або дій, а радше допомагає в судженні так само, як телескоп допомагає дослідникам бачити або інструмент захоплення допомагає людям підбирати речі. У дослідженнях штучний інтелект зазвичай визначається як академічна дисципліна, спрямована на надання машинам людських можливостей сприйняття та розуміння з метою розробки технічних систем, особливо систем обробки інформації (визначення з Handbuch der Künstlichen Intelligenz). Навіть дуже складна зорова система в людському мозку не є «автономною», тому немає сенсу сподіватися на міжнародний договір про заборону або регулювання автономних систем зброї, поки неясно, що насправді означає «автономна», і, отже, що має бути заборонено або регулюватися.

Чи можна надійно залишити систему ШІ для визначення наявності характеристик, що становлять «військові цілі»?

По-друге, «людський контроль» можна визначити приблизно так: системи зброї, що підтримуються штучним інтелектом, повинні бути розгорнуті таким чином, щоб вони постійно перебували під контролем тих, хто займає посади в урядах, вищих командуваннях, штабах армії та центрах бойових операцій. Щоб отримати вигоду від часу, заощадженого завдяки автоматизації, не жертвуючи цим контролем, накази повинні бути віддані заздалегідь і, що важливо, виконати параметризацію та адміністрування перед розгортанням на рівні команди верхнього рівня. Якщо цього дотримуватися, додатки штучного інтелекту не лише нададуть технічну підтримку в захопленні та нейтралізації цілей, але й пропонуватимуть вказівки щодо юридичних проблем.

У статті 36 Додаткового протоколу I Женевської конвенції зазначено, що нова зброя повинна підлягати не лише технічній, а й юридичній сертифікації: таким чином штучному інтелекту буде недостатньо вимірювати основні фізичні параметри місця (наприклад, розташування, розмір, температура), щоб він був оголошений дійсною військовою ціллю. Навпаки, стаття 52 говорить, що «атаки повинні обмежуватися виключно військовими цілями. Що стосується об’єктів, військові цілі обмежуються тими об’єктами, які за своїм характером, розташуванням, призначенням або використанням роблять ефективний внесок у військові дії […]»

Чи можна достовірно залишити систему штучного інтелекту для визначення наявності характеристик, що становлять «військові цілі»? У випадку з гіперзвуковою ракетою, швидше за все, так. Однак у багатьох інших випадках будуть фактори, які штучний інтелект не зможе ідентифікувати та обробити; політики, стратеги та оперативний персонал повинні будуть вирішити так чи інакше на своєму рівні. Таким чином, три країни, які беруть участь у проекті FCAS, Франція, Іспанія та Німеччина, мають можливість продемонструвати переконливий шлях виходу з поточного застою CCW, застосувавши нюансну модель для систем зброї з підтримкою штучного інтелекту та оприлюднивши це у всьому світі, забезпечивши постійне інформування громадськості про те, як розвивається система.

Якщо є один урок, який дає нам історія: вирішальним у перемозі та поразці є не кількість задіяних людських і матеріальних ресурсів, а радше якість політичної та військової культури.

Залишається розглянути одне заперечення: чи не перебувають армії, які поважають обмеження міжнародного права, у невигідному становищі проти тих, хто їх ігнорує? Зробити таке припущення легко, але проти нього є вагомі аргументи. Зрештою, яку потенційну невигідність ризикує отримати армія, якщо вона уникне непотрібних втрат серед цивільного населення? Фактично, це може перетворитися на перевагу – коли бойові дії закінчаться, якщо не раніше. Другий, ще вагоміший аргумент випливає з проблем суспільних відносин і виправдання військових дій: свобода дій, надана міжнародним правом, є великою та розширюваною; таким чином, у конфлікті кожна сторона повинна припускати, що інша буде використовувати власну інтерпретацію міжнародного права, щоб максимізувати свій простір для маневру; і з цієї причини, перш за все, міжнародне право не просто застосовується, а скоріше має застосовуватися, а потім виконуватися. Це одна з найважливіших сфер дипломатії та стратегічної комунікації: «війна за допомогою закону», як це сказано, підсумовує важливість зв’язків з громадськістю, щоб вас сприймали як законослухняного та надійного партнера. У будь-якому збройному конфлікті переконання, що існує, справедлива причина має вирішальне значення – і важливіше, ніж кількість військ, які можуть бути розгорнуті.

Війна — це найвища ступінь збройного конфлікту, екстремальний стан, у якому кожен готовий на все: і саме тому сучасне міжнародне право її засуджує. Якщо є якийсь урок, якому нас навчає історія – і про який нині нагадують нам поточні події у Східній Європі – це не кількість задіяних людських і матеріальних ресурсів, які є вирішальними для перемоги та поразки, а скоріше якість політичної та військової культури.

Автор: Доктор Гартвіг фон Шуберт – є протестантським богословом і був військовим деканом командно-штабного коледжу німецького Бундесверу протягом 15 років. Сьогодні він викладає прикладну етику в двох університетах Гамбурга.

Джерело: IPSJournal, ЄС

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх