Як запобігти ядерному Армагеддону штучного інтелекту

Перегони за впровадження ШІ в системи ядерних озброєнь розпочалися. Але жодна зі світових ініціатив не реагує адекватно на ризики, що виникають.

Це вже не наукова фантастика: перегони за впровадження штучного інтелекту (ШІ) у системи ядерних озброєнь розпочалися. Такий розвиток подій може підвищити ймовірність ядерної війни. Уряди країн світу зараз роблять дії, покликані гарантувати безпеку розробок та застосування ШІ, тому вони мають можливість пом’якшити цю загрозу. Але якщо світові лідери справді хочуть скористатися цією можливістю, вони спочатку зобов’язані зрозуміти, наскільки серйозною є загроза.

Кілька тижнів тому «Велика сімка» у рамках Хіросимського процесу узгодила «Міжнародний кодекс поведінки для організацій, які розробляють передові ШІ-системи» для «просування безпечної, надійної ШІ, що викликає довіру, у всьому світі». Тим часом президент США Джо Байден підписав указ, який встановлює нові стандарти «безпеки та надійності» ШІ. А Великобританія провела перший глобальний Саміт з безпеки ШІ, покликаний гарантувати, щоб ця технологія розроблялася безпечним і відповідальним чином.

Однак жодна з цих ініціатив не реагує адекватно на ризики, що виникають через застосування ШІ у сфері ядерних озброєнь. У затвердженому «Великою сімкою» кодексі поведінки та в указі Байдена лише мимохідь йдеться про необхідність захищати населення від хімічних, біологічних та ядерних загроз, що генеруються штучним інтелектом. А прем’єр-міністр Великобританії Ріші Сунак взагалі не згадав гостру загрозу, що походить від застосування ШІ у сфері ядерних озброєнь, хоча він і заявив, що на Саміті з безпеки ШІ було досягнуто спільне розуміння щодо ризиків, що виникають через ШІ.

Ніхто не ставить під сумнів екзистенційні ризики застосування ядерної зброї, які можуть завдати невимовної шкоди людству і планеті. Навіть регіональна ядерна війна уб’є сотні тисяч людей безпосередньо і призведе до багатьох страждань і смертей побічно. Лише зміна клімату внаслідок такої війни загрожує мільярдам людей жорстоким голодом.

Історія ядерної зброї сповнена випадків, коли її мало не застосували. І найчастіше Армагеддон вдавалося запобігти людям, які вважали за краще довіритися власному судженню, а не сліпо дотримуватися інформації, що постачається машинами. 1983 року радянський офіцер Станіслав Петров отримав сигнал тривоги від супутникової системи раннього попередження: американські ядерні ракети прямували у бік СРСР. Але замість того, щоб негайно попередити начальство (а це гарантовано спровокувало б ядерну «відплату»), Петров абсолютно правильно вирішив, що це була помилкова тривога.

Чи міг би Петров прийняти таке ж рішення (і була б у нього взагалі для цього можливість), якби в системі був задіяний штучний інтелект? Щобільше, застосування технологій машинного навчання у сфері ядерних озброєнь зменшить контроль людини над рішеннями щодо їх застосування.

Так, безумовно, багато командних, контрольних та комунікаційних завдань було автоматизовано вже після винаходу ядерної зброї. Але в міру прогресу в технологіях машинного навчання процедура прийняття рішень просунутими машинами стає дедалі непрозорішою. Це називається « проблемою чорної скриньки » в ШІ. Вона ускладнює людям моніторинг роботи машин, не кажучи вже про відповідь на питання, чи все гаразд із цією машиною, і чи не є вона запрограмованою таким чином, що це може призвести до незаконних чи ненавмисних наслідків.

Проста гарантія, що фінальне рішення про запуск приймає людина, буде недостатньо, щоб пом’якшити ризики

Проста гарантія, що фінальне рішення про запуск приймає людина, буде недостатньою, щоб пом’якшити ці ризики. У дослідженні 2017 року психолог Джон Хоулі робить висновок, що «люди загалом дуже погано виконують вимоги, які пред’являють наглядові органи до моніторингу автономних систем та втручання у їхню роботу».

Крім того, як показала у 2020 році програма Принстонського університету «Наука та глобальна безпека», вже сьогодні процеси прийняття рішень лідерами під час ядерної кризи є дуже поспішними. Навіть якщо ШІ використовуватиметься тільки в сенсорах і для наведення цілей, а не для прийняття рішень про запуск, вже й так стислий графік прийняття рішень щодо необхідності удару скоротиться ще сильніше. Підвищений тиск на лідерів підвищить ризик ірраціональних рішень або помилок у розрахунках.

Ще один ризик виникає при використанні ШІ у супутниках та інших системах розвідки та виявлення. Чи стане ще важче приховувати ядерну зброю, наприклад, підводні човни з балістичними ракетами, які історично вміли добре ховатися. Це може змусити країни з ядерною зброєю застосувати весь свій арсенал ядерної зброї на початку конфлікту, тобто до того, як противник отримає шанс нейтралізувати відомі йому ядерні системи.

Поки що жодна ініціатива (ні указ Байдена, ні кодекс поведінки «Великої сімки») не входить далі за добровільні зобов’язання зберегти за людьми контроль над прийняттям рішень про ядерну зброю. Як зазначив генеральний секретар ООН Антоніу Гутерреш, критично необхідний юридично зобов’язальний договір про заборону «летальних автономних систем зброї».

Вкрай важливо, щоб влада та суспільство почали боротися не лише за відмову від використання ШІ в ядерній зброї, а й за ліквідацію такої зброї взагалі

Але хоч такий договір є необхідним першим кроком, потрібно зробити набагато більше. Коли мова заходить про ядерну зброю, спроб спрогнозувати, пом’якшити або відрегулювати нові ризики, що йдуть від нових технологій, завжди буде недостатньо. Ми маємо повністю виключити ці озброєння з нашого рівняння. Це означає, що всі уряди повинні зобов’язатися стигматизувати, заборонити та ліквідувати ядерну зброю, приєднавшись до « Договору про заборону ядерної зброї », який відкриває зрозумілий шлях до миру без такої зброї. Це також означає, що держави з ядерною зброєю зобов’язані негайно припинити інвестувати кошти в модернізацію та розширення своїх ядерних арсеналів, у тому підґрунтям підвищення їхньої «безпеки» або захисту від кібератак. Враховуючи непереборні ризики, що виникають просто через самий факт існування ядерних озброєнь, такі зусилля є фундаментально марними.

Ми вже знаємо, що автономні системи здатні знизити поріг початку збройного конфлікту. У разі впровадження ШІ у сфері ядерних озброєнь з’явиться новий пласт ризиків, хоча рівень небезпеки вже є неприйнятним. Вкрай важливо, щоб влада та суспільство зрозуміли це, і почали боротися не лише за відмову від використання ШІ в ядерній зброї, а й за ліквідацію такої зброї взагалі.

Автор: Мелісса Парке (Melissa Parke) – колишній міністр міжнародного розвитку Австралії, є виконавчим директором Міжнародної кампанії за скасування ядерної зброї (International Campaign to Abolish Nuclear Weapons, ICAN), удостоєної Нобелівської премії миру у 2017 році.

Джерело: IPG-Journal (Project Syndicate), ЄС

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх