За останні роки виникла величезна індустрія, оскільки Китай, Сполучені Штати, Велика Британія та Європейський Союз зробили безпеку штучного інтелекту (ШІ) своїм головним пріоритетом.
Очевидно, що будь-яка технологія – від автомобілів і фармацевтичних препаратів до верстатів і газонокосарок – повинна бути розроблена якомога безпечніше (хотілося б, щоб соціальні мережі на початковому етапі свого розвитку були піддані більш ретельному контролю).
Але просто піднімати питання безпеки недостатньо. У випадку зі штучним інтелектом дебати надто зосереджені на “безпеці від катастрофічних ризиків, спричинених ШІ (штучним загальним інтелектом)”, тобто суперінтелекту, який може перевершити всіх людей у виконанні більшості когнітивних завдань. На порядку денному стоїть питання “узгодження”: чи дають моделі ШІ результати, які відповідають цілям і цінностям їхніх користувачів і розробників – тема, яка призводить до різних науково-фантастичних сценаріїв, в яких з’являється суперінтелектуальний ШІ і знищує людство.
Бестселер автора Брайана Крістіана “Проблема вирівнювання” (The Alignment Problem) здебільшого зосереджений на AGI, і ті ж самі проблеми спонукали Anthropic, одну з головних компаній у цій галузі, створювати моделі з власними “конституціями”, що закріплюють етичні цінності та принципи.
Але є щонайменше дві причини, чому ці підходи можуть бути хибними. По-перше, нинішні дебати про безпеку не тільки (некорисно) антропоморфізують ШІ; вони також змушують нас зосередитися на неправильних цілях. Оскільки будь-яка технологія може бути використана як на благо, так і на шкоду, в кінцевому підсумку важливо те, хто її контролює, які цілі переслідує і яким правилам вона підпорядковується.
Жодні дослідження з безпеки не змогли б запобігти використанню автомобіля як зброї на мітингу білих расистів у Шарлотсвіллі, штат Вірджинія, у 2017 році. Якщо ми приймемо припущення, що системи штучного інтелекту мають власну індивідуальність, то можемо дійти висновку, що наш єдиний вихід – забезпечити їм правильні цінності та конституцію в абстрактному розумінні. Але ця передумова є хибною, і запропоноване рішення не відповідає дійсності. Звичайно, контраргумент полягає в тому, що якби ШІ коли-небудь був досягнутий, то було б неважливо, чи була б система “узгоджена” з людськими цілями, тому що не залишилося б жодних запобіжників, які б стримували хитрість суперінтелекту. Але це твердження підводить нас до другої проблеми, пов’язаної з більшістю дискусій про безпеку ШІ. Навіть якщо ми перебуваємо на шляху до ШІ (що видається малоймовірним), найбезпосереднішою небезпекою все одно буде зловживання не надінтелектуальним ШІ з боку людей.
Припустимо, що в майбутньому настане певний час (T) (скажімо, 2040 рік), коли буде винайдено ШІ, і що до цього часу системи ШІ, які не мають ШІ, все ще залишатимуться неавтономними. (Якщо вони стануть самостійними до появи ШІ, нехай цей день буде Т.) Тепер розглянемо ситуацію за рік до Т. На той момент системи ШІ стануть дуже потужними (майже на порозі суперінтелекту), і питання, яке ми хотіли б поставити, звучить так: “Хто контролює? Хто зараз контролює ситуацію?
Відповіддю, звичайно ж, будуть люди, індивідуально або колективно у формі уряду, консорціуму чи корпорації. Щоб спростити дискусію, дозвольте мені назвати людських агентів, відповідальних за ШІ, корпорацією Х. Ця компанія (це також може бути більше однієї компанії, що може бути ще гірше, як ми побачимо) зможе використовувати свої можливості ШІ для будь-якої мети, яку вона захоче. Якщо вона захоче знищити демократію і поневолити людей, вона зможе це зробити. Загроза, яку так багато коментаторів приписують AGI, з’явилася б ще до AGI.
Насправді ситуація, ймовірно, була б гіршою за цей опис, оскільки Корпорація Х може призвести до подібного результату, навіть якщо її наміром не було знищення демократії. Якщо її власні цілі не повністю узгоджуються з демократією (що неминуче), демократія може постраждати як ненавмисний наслідок (як це сталося у випадку з соціальними мережами).
Наприклад, нерівність, що перевищує певний поріг, може поставити під загрозу належне функціонування демократії; але цей факт не зупинить корпорацію X від того, щоб робити все можливе для збагачення себе або своїх акціонерів. Будь-які запобіжники, вбудовані в її моделі ШІ для запобігання зловмисному використанню, не матимуть значення, тому що Корпорація Х все одно зможе використовувати свою технологію так, як їй заманеться. Так само, якби існували дві компанії, Корпорація Х і Корпорація Y, які контролювали б високопродуктивні моделі ШІ, будь-яка з них або обидві могли б переслідувати цілі, що завдають шкоди соціальній згуртованості, демократії та людській свободі. (І ні, аргумент про те, що вони обмежуватимуть одна одну, не є переконливим. Навпаки, їхня конкуренція може зробити їх ще більш безжальними).
Таким чином, навіть якщо ми отримаємо те, чого прагне більшість дослідників безпеки ШІ – належне узгодження та обмеження ШІ – ми не будемо в безпеці. Наслідки цього висновку мають бути очевидними: нам потрібні набагато сильніші інституції для стримування технологічних компаній, а також набагато сильніші форми демократичних і громадянських дій для забезпечення підзвітності урядів, які контролюють ШІ. Це завдання є окремим і відмінним від вирішення проблеми упередженості моделей ШІ або їхньої відповідності людським цілям.
Чому ж тоді ми так зациклені на потенційній поведінці антропоморфного ШІ? Частково це хайп, який допомагає технологічній індустрії залучати більше талантів та інвестицій. Чим більше всі говорять про те, як може діяти надінтелектуальний ШІ, тим більше громадськість починає думати, що AGI неминучий. Роздрібні та інституційні інвестори вкладатимуть кошти в наступну велику річ, а технічні керівники, які виросли на фантастичних зображеннях суперінтелектуального ШІ, отримають ще одну безкоштовну перепустку. Нам варто почати приділяти більше уваги більш нагальним ризикам.
Автор: Дарон Ачемоглу, професор економіки Інституту економіки Массачусетського технологічного інституту, є співавтором (разом із Саймоном Джонсоном) книги “Влада і прогрес”: Наша тисячолітня боротьба за технології та процвітання.
Джерело: GulfTimes, Катар