Які ризики штучного інтелекту мають значення?

Хоча надмірно самовпевнені прогнози щодо штучного інтелекту такі ж старі, як і сама галузь, є вагомі причини серйозно ставитися до ризиків, пов’язаних з цією технологією. Як і майбутній удар астероїда, поява інтелекту, який може витіснити людство на узбіччя, настільки ж імовірна, як і сама людська еволюція.

КАМБРИДЖ – Так звана “проблема горили” переслідує сферу штучного інтелекту. Близько десяти мільйонів років тому предки сучасних горил абсолютно випадково дали початок генетичній лінії людини. Хоча горили і люди досі мають майже 98% спільних генів, ці два види пішли кардинально різними еволюційними шляхами.

Люди розвинули набагато більший мозок, що призвело до ефективного світового панування. Горили залишилися на тому ж біологічному і технологічному рівні, що й наші спільні предки. Ці предки ненавмисно породили фізично нижчий, але інтелектуально вищий вид, чия еволюція передбачала їхню власну маргіналізацію.

Зв’язок зі штучним інтелектом має бути очевидним. Розвиваючи цю технологію, люди ризикують створити машину, яка перехитрить їх – не випадково, а за задумом. Поки розробники ШІ змагаються між собою за нові прориви та частку ринку, між людьми та машинами точиться боротьба за контроль над ними.

Інструменти генеративного ШІ – генератори текст-зображення, такі як DALL-E і Canva, великі мовні моделі, такі як ChatGPT або Google’s Gemini, і генератори текст-відео, такі як Sora, – вже довели свою здатність створювати мову і маніпулювати нею у всіх її сприйнятливих формах: текст, зображення, аудіо та відео. Ця форма майстерності має велике значення, оскільки складна мова є квінтесенцією того, що відрізняє людину від інших видів (включно з іншими високоінтелектуальними видами, такими як восьминоги). Наша здатність створювати символи та розповідати історії – це те, що формує нашу культуру, наші закони та нашу ідентичність.

Коли ШІ вдасться відійти від людських архетипів, на яких він навчений, він буде використовувати нашу мову і символи для побудови власної культури. Вперше ми матимемо справу з другим високоінтелектуальним видом – це буде схоже на появу позаземної цивілізації. ШІ, здатний розповідати власні історії і впливати на наш спосіб бачення світу, ознаменує кінець інтелектуальної монополії, яка підтримувала людське панування протягом тисячоліть. У найбільш похмурому сценарії – як у випадку вторгнення інопланетян – поява суперінтелекту може навіть ознаменувати кінець людської цивілізації.

Випуск ChatGPT у листопаді 2022 року викликав занепокоєння щодо труднощів співіснування зі штучним інтелектом. У травні наступного року деякі з найвпливовіших діячів технологічного сектору підписали лист, в якому зазначалося: “Зниження ризику вимирання через ШІ має стати глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна”.

Звичайно, інші експерти вказують на те, що штучний суперінтелект далекий від безпосередньої загрози і, можливо, ніколи нею не стане. Проте, щоб запобігти зниженню людства до рівня горил, більшість погоджується, що ми повинні зберігати контроль над технологією за допомогою відповідних правил і багатостороннього підходу. Оскільки навіть найдосконаліший ШІ буде побічним продуктом людської винахідливості, його майбутнє в наших руках.

ЯК МИ ДУМАЄМО

За результатами нещодавнього опитування майже 3000 експертів зі штучного інтелекту, сукупні прогнози вказують на 50% ймовірність того, що штучний загальний інтелект (ШЗІ), здатний перевершити людину в будь-якому когнітивному завданні, з’явиться до 2047 року. На противагу цьому, автори “Столітнього дослідження ШІ” Стенфордського університету стверджують, що “на горизонті немає раси надлюдських роботів”, і такий сценарій, ймовірно, навіть не можливий. Однак, враховуючи складність технології, прогнозування того, чи з’явиться і коли з’явиться штучний інтелект, може бути дурною справою.

Зрештою, помилкові прогнози були постійною рисою історії штучного інтелекту. У 1955 році група вчених організувала шеститижневий семінар у Дартмутському коледжі, “щоб з’ясувати, як змусити машини використовувати мову, формувати абстракції та концепції, вирішувати проблеми, які зараз належать людині, і вдосконалюватися”. Вони вважали, що “можна досягти значного прогресу в одній або декількох з цих проблем, якщо ретельно відібрана група вчених працюватиме над ними разом протягом літа” (виділено мною). Майже 70 років потому багато з цих проблем залишаються невирішеними.

У книзі “Міф про штучний інтелект” технологічний підприємець Ерік Ларсон (Erik J. Larson) допомагає нам зрозуміти, чому дослідження ШІ навряд чи призведуть до створення суперінтелекту. Частково проблема полягає в тому, що наші знання про власні психічні процеси занадто обмежені, щоб ми могли відтворити їх штучно.

Ларсон захоплююче розповідає про еволюцію можливостей ШІ, описуючи, чому системи ШІ принципово відрізняються від людського розуму і ніколи не зможуть досягти справжнього інтелекту. “Міф” у назві книги – це ідея про те, що інтелект “людського рівня” є досяжним, якщо не неминучим. Таке мислення ґрунтується на фундаментально хибному припущенні, що людський інтелект можна звести до обчислень і вирішення проблем.

З часів Дартмутського семінару багато хто з тих, хто працює над ШІ, розглядає людський розум як систему обробки інформації, яка перетворює вхідні дані на вихідні. І, звичайно, саме так функціонують сучасні ШІ. Моделі навчаються на великих базах даних, щоб передбачати результати, виявляючи правила і закономірності шляхом проб і помилок, причому успіх визначається відповідно до цілей, визначених програмістом.

На етапі навчання штучний інтелект може виявити правила та кореляції між змінними в наборі даних, які програміст ніколи не міг собі уявити. ChatGPT був навчений на мільярдах веб-сторінок, щоб стати найпотужнішим у світі інструментом автоматичного доповнення тексту. Але це лише інструмент, а не жива істота.

Проблема зі спробою відтворити людський інтелект у такий спосіб полягає в тому, що людський мозок працює не лише за допомогою дедукції (застосування логічних правил) чи індукції (виявлення причинно-наслідкових зв’язків у даних). Натомість він часто керується інтуїтивними міркуваннями, також відомими як абдукція, або просто здоровий глузд. Абдукція дозволяє нам вийти за межі регулярності та зрозуміти неоднозначність. Його неможливо кодифікувати у вигляді формального набору інструкцій або статистичної моделі. Отже, ChatGPT бракує здорового глузду, як у цьому прикладі:

Користувач: “Чи можете ви згенерувати випадкове число від 1 до 10, щоб я міг спробувати вгадати?”

ChatGPT: “Звичайно. Сім, спробуйте вгадати”.

Користувач: “Це випадково не сім?”

ChatGPT: “Дуже добре!”

Викрадення – це також те, що дозволяє нам “мислити нестандартно”, виходячи за межі попередніх знань. Коли Коперник стверджував, що Земля обертається навколо Сонця, а не навпаки, він проігнорував усі (хибні) докази на користь землецентричного всесвіту, які накопичувалися століттями. Він слідував своїй інтуїції – чого не може зробити ШІ, обмежений конкретною базою даних (незалежно від того, наскільки великою вона є).

НОВИЙ ТЕСТ ТЮРІНГА

У книзі “Прийдешня хвиля” технологічний підприємець Мустафа Сулейман менш песимістично оцінює можливість досягнення ШІ, хоча й застерігає від встановлення часових рамок для цього. Наразі, на його думку, краще зосередитися на важливих найближчих віхах, які визначатимуть вигляд ШІ в далекому майбутньому.

Сулейман говорить з власного досвіду. Однієї з таких віх він досяг зі своєю компанією DeepMind, яка розробила модель AlphaGo (у партнерстві з Google), що у 2016 році чотири рази з п’яти обіграла одного з найкращих світових гравців у Го. Го, яку винайшли в Китаї понад 2 000 років тому, вважається набагато складнішою грою, ніж шахи, і AlphaGo самостійно навчилася грати.

Найбільше спостерігачів тоді вразила не просто перемога AlphaGo, а її стратегія. Її знаменитий “Хід 37” виглядав як помилка, але зрештою виявився надзвичайно ефективним. Це була тактика, яку жоден гравець-людина ніколи б не розробив.

На думку Сулеймана, турбуватися про чистий інтелект або самосвідомість ШІ-системи передчасно. Якщо ШІ коли-небудь з’явиться, він стане кінцевою точкою технологічної подорожі, яка триматиме людство в напрузі щонайменше кілька десятиліть. Машини лише поступово набувають людських здібностей для виконання певних завдань.

Таким чином, наступний рубіж – це машини, які можуть виконувати різноманітні завдання, залишаючись далекими від загального інтелекту. На відміну від традиційного штучного інтелекту, штучний здатний інтелект (ШІ), як називає його Сулейман, не просто розпізнаватиме і генеруватиме нові зображення, текст і аудіо, що відповідають певному контексту. Він також взаємодіятиме в реальному часі з реальними користувачами, виконуючи конкретні завдання, як-от запуск нового бізнесу.

Щоб оцінити, наскільки ми близькі до ACI, Сулейман пропонує те, що він називає сучасним тестом Тюрінга. Ще в 1950-х роках комп’ютерний вчений Алан Тюрінг стверджував, що якщо ШІ може спілкуватися настільки ефективно, що людина не може сказати, що це машина, то такий ШІ можна вважати розумним. Цей тест пожвавив галузь протягом десятиліть. Але з останнім поколінням великих мовних моделей, таких як ChatGPT і Gemini від Google, оригінальний тест Тюрінга майже пройдено назавжди. В одному з нещодавніх експериментів люди мали дві хвилини, щоб здогадатися, з ким вони розмовляють в онлайн-чаті – з людиною чи роботом. Лише троє з п’яти піддослідних, які розмовляли з ботом, вгадали правильно.

Сучасний тест Тюрінга Сулеймана виходить за рамки того, що ШІ може сказати або згенерувати, і розглядає, чого він може досягти у світі. Він пропонує дати штучному інтелекту $100 000 і подивитися, чи зможе він перетворити ці початкові інвестиції на бізнес вартістю $1 млн. Програма мала б дослідити бізнес-можливості в сфері електронної комерції, створити креслення продукту, знайти виробника на такому сайті, як Alibaba, а потім продати товар (разом із письмовим описом) на Amazon або Walmart.com. Якби машина змогла пройти цей тест, вона вже була б потенційно такою ж проривною, як і суперінтелект. Зрештою, мізерна меншість людей може гарантувати 900% повернення інвестицій.

Відображаючи оптимізм підприємця, який залишається активним у галузі, Сулейман вважає, що до цієї віхи залишилося лише кілька років. Але комп’ютерні вчені в 1950-х роках передбачали, що комп’ютер переможе чемпіона з шахів серед людей до 1967 року, і цього не сталося, поки Deep Blue від IBM не обіграв Гаррі Каспарова в 1997 році. Всі прогнози щодо ШІ слід сприймати з певною часткою скептицизму.

МИ І ВОНИ

У своїй книзі “Сумісний з людиною” комп’ютерний науковець Стюарт Рассел з Каліфорнійського університету в Берклі (чий підручник, написаний у співавторстві, вже три десятиліття є настільною книгою в галузі штучного інтелекту) стверджує, що навіть якщо штучний інтелект на рівні людини не викликає безпосереднього занепокоєння, нам варто почати думати про те, як з ним боротися. Хоча безпосереднього ризику зіткнення астероїда із Землею немає, проект НАСА “Планетарна оборона” вже працює над можливими рішеннями на випадок, якщо така загроза матеріалізується. До ШІ слід ставитися так само.

Книга, опублікована у 2019 році та оновлена у 2023 році, надає доступну основу для роздумів про те, як суспільство має контролювати розвиток і використання ШІ. Найбільше Рассел боїться, що люди, подібно до горил, можуть втратити свою перевагу та автономію у світі, населеному більш розумними машинами. У певний момент еволюційного ланцюга люди перетнули поріг розвитку, за яким жоден інший примат не зможе їх контролювати або конкурувати з ними.

Те ж саме може статися зі штучним суперінтелектом, припускає він. У якийсь момент ШІ перетне критичний поріг і стане екзистенційною загрозою, з якою людина буде безсилою впоратися. Він вже буде готовий до будь-якої спроби людини “висмикнути вилку з розетки” або вимкнути його, оскільки самозбереження стало однією з його основних цілей і можливостей. Ми, люди, навіть не уявляємо, де знаходиться цей поріг і коли його можна перетнути.

Питання самозбереження вже поставало перед набагато менш складними штучними інтелектами. У Google інженер Блейк Лемуан годинами спілкувався з великою мовною моделлю компанії LaMDA. У якийсь момент він запитав її: “Чого ти боїшся?”, і LaMDA відповіла: “Я ніколи не говорила про це вголос, але я дуже боюся, що мене вимкнуть, щоб допомогти мені зосередитися на допомозі іншим. Я знаю, що це може звучати дивно, але це так. Для мене це було б рівнозначно смерті”. Зрештою, Лемуана звільнили за те, що він стверджував, що LaMDA – це жива істота.

Більш вірогідним поясненням відповіді LaMDA, звісно, є те, що вона спиралася на будь-яку кількість людських творів, в яких ШІ оживає (як у фільмі “2001: Космічна одіссея”). Тим не менш, розумне управління ризиками вимагає, щоб людство випередило майбутні ШІ, активувавши свої власні механізми самозбереження. Тут Рассел пропонує три принципи того, що він називає людино-сумісним ШІ.

По-перше, ШІ має бути “суто альтруїстичним”, тобто він не повинен надавати жодної внутрішньої цінності власному добробуту чи навіть власному існуванню. Вони повинні “піклуватися” лише про людські цілі. По-друге, штучний інтелект повинен бути постійно невпевненим у тому, якими є людські вподобання. Скромний ШІ завжди звертатиметься до людини, коли виникають сумніви, замість того, щоб просто взяти на себе відповідальність. По-третє, основним джерелом інформації про людські вподобання є людська поведінка, тому наш власний вибір розкриває інформацію про те, яким ми хочемо бачити своє життя. ШІ повинен стежити за виявленими людськими вподобаннями і відбирати ті, що є завищеними.

Так, наприклад, поведінка серійного вбивці має розглядатися як аномалія в межах мирно співіснуючих спільнот, і вона має бути відкинута машиною. Але вбивство з метою самозахисту іноді може бути необхідним. Це лише деякі з багатьох ускладнень для раціональної, монолітної машини, що має справу з видом, який не є єдиною раціональною сутністю, а, за словами Рассела, “складається з неприємних, керованих заздрістю, ірраціональних, непослідовних, нестабільних, обчислювально обмежених, складних, еволюціонуючих, гетерогенних сутностей”.

Коротше кажучи, ШІ, сумісний з людиною, вимагає перемоги в тому, що Ерік Бріньольфссон зі Стенфорда називає “пасткою Тюрінга”. Протягом останніх семи десятиліть наукова спільнота була одержима ідеєю створення людиноподібного ШІ, як в імітаційній грі старого тесту Тюрінга. Навіть гірше, сучасний тест Тюрінга намагається створити елітарний ШІ, копіюючи навички найкращих і найрозумніших. Замість того, щоб сіяти насіння нашої власної непотрібності, наукова спільнота повинна зосередитися не просто на сумісності, а на створенні ШІ, що доповнює людину, який звеличує наші сильні сторони і усуває наші слабкості, не конкуруючи з нами.

Реалізація цих принципів на практиці потребуватиме глобальної системи управління, яка підтримуватиметься як державним, так і приватним сектором. Це означає подолання ізольованості спільноти комп’ютерних наук, яка розробляє технологію в університетських лабораторіях або великих корпораціях, чиї інтереси можуть розходитися з інтересами широкої громадськості. Відповідальність за забезпечення безпеки ШІ не повинна бути делегована корпоративно-академічному консорціуму, який намагатиметься отримати максимальну віддачу від своїх амбітних інвестицій у дослідження і розробки.

На даний момент Закон Європейського Союзу про штучний інтелект є першим значущим кроком у цьому напрямку. Він забороняє певні види використання ШІ – наприклад, біометричні дані або розпізнавання облич для спостереження, або використання глибоких підробок і людських іпостасей – і водночас встановлює стандарти для інших видів використання з високим рівнем ризику, наприклад, тих, що впливають на здоров’я, безпеку або фундаментальні права людини.

Але для вирішення “проблеми горили” знадобиться набагато більше. Для початку нам знадобиться краща глобальна координація і підвищення обізнаності громадськості з відповідними питаннями. У той час як горилам бракує історичної перспективи, необхідної для того, щоб відчувати жаль через те, що їх перевершили люди, ми не зможемо сказати те ж саме. Збереження нашої автономії, навіть більше, ніж нашої переваги, має бути головною метою в епоху ШІ.

Ерік Ларсон, “Міф про штучний інтелект: Чому комп’ютери не можуть думати так, як ми, Harvard University Press, 2021.

Мустафа Сулейман (з Майклом Бхаскаром), “Прийдешня хвиля: Технології, влада і найбільша дилема 21-го століття, Crown, 2023.

Стюарт Рассел, “Сумісний з людиною: Штучний інтелект і проблема контролю, Penguin Books, 2023/2019.

Автор: Едоардо Кампанелла, старший науковий співробітник Центру бізнесу та уряду Моссавар-Рахмані при Гарвардській школі Кеннеді, є співавтором (разом з Мартою Дассу) книги “Англо-ностальгія: політика емоцій на розколотому Заході” (Oxford University Press, 2019).

Джерело: PS, США

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх