Призупиняючи штучний інтелект, ми завдаємо шкоди лише собі

Уповільнення призведе до політизації розвитку штучного інтелекту, завдасть шкоди національній безпеці США — і досягне дуже небагато.

Чи варто нам уповільнювати розвиток штучного інтелекту, зокрема великих мовних моделей? Не обов’язково через державне регулювання, а на добровільній основі, при цьому великі компанії призупиняють удосконалення на шість місяців, поки світ не буде в кращому становищі, щоб дозволити цій роботі продовжуватися? Нещодавня петиція, підписана Ілоном Маском та понад 1100 іншими, свідчить про те, що це саме те, що ми повинні зробити.

Я не погоджуюсь. Уповільнення політизує розробку штучного інтелекту, завдасть шкоди національній безпеці США та може призвести до відтоку талантів із деяких найбільш інноваційних компаній Америки. Тим часом затримка мало що дасть.

Просте оголошення про добровільну паузу приверне увагу регуляторних органів і Конгресу, а можливо, і розслідування. І який саме доказ буде необхідним, щоб дозволити розвитку ШІ знову відновитися? Ризик полягає в тому, що затримку можна буде продовжити на невизначений термін, особливо якщо політики вскочать і поляризують проблему.

Іноді прихильники уповільнення порівнюють це з встановленням огорожі на шосе чи гальмуванням автомобіля, і те, і інше є безперечним. Але це лінгвістична спритність. Поправка гальм на автомобілі – це фактично спосіб прискорити надходження цього автомобіля на ринок. Кращою аналогією було б, якби хтось на початку 20 століття запропонував «призупинити» виробництво автомобілів на тій підставі, що вони можуть бути надто небезпечними. Через шість місяців компанії ще раз оцінять автомобілі, якщо їм взагалі дозволять це зробити.

Насправді Open AI, нинішній лідер у цій галузі, тестував і покращував GPT-4 протягом приблизно шести місяців, перш ніж оприлюднити його для широкої громадськості.

Звичайно, існують законні проблеми безпеки практично з усіма новими продуктами. Але рідко вони добре вирішуються шляхом призупинення інновацій. У багатьох випадках потрібно більше тестування та прямого зворотного зв’язку. В інших випадках продукт може бути фактично випущений на ринок.

Розглянемо випадок соціальних мереж. Джонатан Гайдт, соціальний психолог і професор бізнес-школи Нью-Йоркського університету, стверджує, що соціальні медіа значно сприяють зростанню депресії серед дівчат-підлітків. Незалежно від того, згодні ви чи ні, Гайдт не міг би побудувати багато аргументів, не покладаючись на фактичні дані про використання соціальних мереж.

Що, якби у 2006 році ми колективно вирішили призупинити розвиток соціальних медіа на шість місяців, обмірковуючи можливу шкоду від їх широкого використання? Його наслідки були навряд чи очевидними в той час, і вони досі оскаржуються. Тим часом, після шестимісячної затримки, скільки часу ми мали б просунутися в процесі оцінювання?

Щодо штучного інтелекту, на відміну від вакцин та інших ліків, немає прямих рандомізованих контрольних досліджень, які могли б виділити його вплив на соціальному рівні. Так, ми всі можемо погодитися, що нам не слід переводити наші шкільні системи на навчання GPT — навіть лише 10% або 20% навчання — доки не будуть проведені додаткові дослідження. Але оскільки більшість шкільних округів від природи консервативні (маленькі c), більш вірогідна боротьба полягає в тому, як змусити школи прийняти ШІ, а не як відкласти це.

Деякі люди, такі як теоретик і дослідник штучного інтелекту Еліезер Юдковскі, стверджують, що ми повинні заборонити певні форми ШІ, інакше вони повстануть і знищать нас. Він навіть закликає завдавати цілеспрямованих авіаударів по будь-кому, хто створює «негідний центр обробки даних».

Категорично не згоден. Але, принаймні, Юдковський послідовний, ніж ті, хто виступає за шестимісячну паузу. Якщо ми затримаємо прогрес у цих формах штучного інтелекту, наприкінці періоду ми опинимося в тому ж становищі, що й сьогодні, за винятком того, що рівень громадської паніки буде вищим, а рівень корпоративного доходу від штучного інтелекту буде (відносно) нижчим.

У листі не було виділено жодної конкретної країни, але більшість інноваційних компаній зі штучного інтелекту знаходяться в США. І навіть якщо американські компанії введуть шестимісячну паузу, хто скаже, що китайські компанії це зроблять? Що можуть зробити такі країни, як Ізраїль чи Японія, якщо їхній найважливіший союзник вирішить призупинити роботу над ШІ? Чи не призведе це до поширення GPT-подібних моделей у більшій кількості країн — саме цього намагалися уникнути прихильники паузи?

І якщо мета полягає в тому, щоб «призупинити гігантські експерименти зі штучним інтелектом», як називається лист, що з меншими? Що робити, якщо невелика компанія проводить поточний експеримент, але ще не наблизилася до створення ефективного продукту? Шестимісячне відсторонення зашкодить їхнім майбутнім бізнес-перспективам і сприятиме закріпленню чинних керівників. Що, якщо один із цих новачків працює над створенням дуже хороших процедур безпеки та вирівнювання? Що, якщо його ШІ може допомогти вилікувати рак?

Мало доказів того, що прихильники відстрочки продумали основні вторинні наслідки своєї пропозиції з 600 слів. Можливо, вони могли б навести сильніші аргументи, якби мали більше часу на підготовку — скажімо, ще півроку?

Автор: Тайлер Коуен (Tyler Cowen) – оглядач Bloomberg Opinion. Він є професором економіки в Університеті Джорджа Мейсона та пише для блогу Marginal Revolution.

Джерело: Bloomberg

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх