Новини України та Світу, авторитетно.

Остерігайтеся двомовності штучного інтелекту Сема Альтмана

Генеральний директор OpenAI майстерно малює міраж безпеки та достатку в нашому майбутньому – і суперечить сам собі на цьому шляху.

Пам’ятаєте, як неприбуткова рада OpenAI безцеремонно звільнила Сема Альтмана? Це було чотириденне блукання в пустелі для головного виконавчого директора, спричинене твердженням, що він не був “послідовно відвертим” з директорами. Минув рік, і Альтман не дуже послідовно висловлюється про майбутнє штучного інтелекту. В інтерв’ю Bloomberg Businessweek, опублікованому в понеділок, Олтман зізнався, що одного разу він назвав “абсолютно випадкову” дату, коли OpenAI створить штучний загальний інтелект (AGI) – теоретичний поріг, коли ШІ перевершить людський інтелект. Це був 2025 рік, через десять років після заснування компанії.

Відвертість Альтмана щодо цієї помилки на мить освіжила, поки він не зробив інший прогноз у тому ж інтерв’ю: “Я думаю, що ШІ, ймовірно, буде розроблений під час цього президентського терміну”, – сказав він. У понеділок в особистому блозі він зробив ще більшу заяву: цього року ми побачимо, як “агенти” ШІ приєднаються до робочої сили, що “суттєво змінить результати діяльності компаній”.

Олтман став майстром модуляції між смиренністю та галасом. Він визнає свої минулі здогадки і водночас робить не менш спекулятивні прогнози щодо майбутнього – заплутаний коктейль, який відволікає увагу від більш гострих поточних проблем. Сприймайте всі його заяви з великою дрібкою солі.

Лідери технологічних компаній вже давно намагаються продати нам міраж майбутнього. Ілон Маск стверджував, що до 2020 року на дорогах з’являться самокеровані таксі, а Стіва Джобса висміювали за його поле спотворення реальності. Але стратегічна невизначеність Альтмана є більш витонченою, оскільки він поєднує свої заяви з очевидною відвертістю, наприклад, написавши в понеділок у Твіттері, що OpenAI втрачає гроші через надмірну популярність свого преміум-сервісу, або ж визнавши свої попередні здогадки щодо AGI. Це може зробити інші прогнози і заяви більш правдоподібними.

Ставки також відрізняються від ставок Маска, який продає автомобілі та ракети, і Джобса, який продавав споживчі товари. Альтман – це маркетингове програмне забезпечення, яке може змінити освіту та зайнятість для мільйонів людей, так само, як сам інтернет змінив майже все, і його прогнози можуть допомогти керувати рішеннями бізнесу та урядів, які бояться залишитися позаду.

Одним із ризиків, наприклад, є потенційне послаблення регулювання. Хоча у 2024 році інститути безпеки ШІ з’явилися в кількох країнах, зокрема в США, Великій Британії, Японії, Канаді та Сінгапурі, існує ймовірність, що цього року глобальний нагляд буде послаблений. Фірма політичних досліджень Eurasia Group, заснована американським політологом Яном Бреммером, називає послаблення регулювання ШІ одним з головних ризиків на 2025 рік. Бреммер зазначає, що обраний президент Дональд Трамп, швидше за все, скасує указ президента Джо Байдена про ШІ, а міжнародна серія самітів з безпеки ШІ, ініційована Великобританією, буде перейменована в “Саміт дій зі штучного інтелекту”, який відбудеться цього року в Парижі (де також базуються такі перспективні стартапи, як Mistral AI).

З одного боку, коментарі Альтмана про неминуче прибуття AGI допомагають виправдати цей поворот до “дії” від “безпеки” на цих самітах, оскільки значущий нагляд виглядає більш складним для організації, коли події розвиваються так швидко. Послання стає таким: “Це відбувається так швидко, що традиційні регуляторні рамки не встигають”. Альтман також був непослідовним у тому, як він говорить про безпеку ШІ.

У своєму блозі в понеділок він говорив про її важливість, але в інтерв’ю журналісту New York Times Ендрю Россу Соркіну на саміті Dealbook у грудні він применшив її значення, сказавши: “Безпека штучного інтелекту, яку ми висловлювали, не пов’язана з моментом AGI: “Багато проблем з безпекою, які ми та інші висловлювали, насправді не стосуються AGI. Здається, що AGI може бути побудований, світ продовжує розвиватися в основному тим же шляхом. Економіка рухається швидше, речі ростуть швидше”.

Це переконливий наратив для політичних лідерів, які вже схильні до легкого регулювання, таких як Трамп, якому Альтман надає пожертву в розмірі 1 мільйона доларів на інавгураційний фонд. Проблема полягає в тому, що обіцянки світлого майбутнього постійно відволікають увагу від короткострокових проблем, таких як загроза, яку штучний інтелект несе праці, освіті та творчому мистецтву, а також упередженість і проблеми з безпекою, від яких все ще страждає генеруючий ШІ.

Коли агентство Bloomberg запитало Альтмана про енергоспоживання ШІ, він одразу ж згадав про неперевірену нову технологію як відповідь. “Термоядерний синтез буде працювати”, – відповів він, маючи на увазі все ще теоретичний процес отримання енергії в масштабах за допомогою ядерного синтезу. “Незабаром”, – додав він. “Ну, скоро відбудеться демонстрація термоядерного синтезу з чистим прибутком”. Так сталося, що термоядерний синтез десятиліттями був предметом надто оптимістичних прогнозів, і в цьому випадку Олтман знову використав його як засіб відвернути увагу від питання, яке загрожувало стримати його амбіції.

Схоже, що Альтман працює з більш складною, ітеративною версією хайп-машини Кремнієвої долини. Це важливо, тому що він не просто продає послугу, а формує ставлення бізнесу і політиків до ШІ в критичний момент, особливо в питаннях регулювання. За його словами, ШІ з’явиться під час президентства Трампа, але світ не зупиниться. Не потрібно занадто багато стримувань і противаг. Це далеко не так.

Автор: Пармі Олсон – колумніст Bloomberg Opinion, що висвітлює питання технологій. Колишня репортерка Wall Street Journal та Forbes, вона є авторкою книги “Перевага: ШІ, ChatGPT і перегони, які змінять світ”.

Джерело: Bloomberg, США

МК

Поделиться:

Опубліковано

у

Теги: