Лобіювання великих технологій зводить нанівець закон про штучний інтелект

За зачиненими дверима компанії запекло лобіювали в Європейському Союзі ідею залишити просунуті системи штучного інтелекту без регулювання.

Оскільки моделі штучного інтелекту дедалі ширше застосовуються в суспільстві, стає зрозуміло, що ці системи несуть ризики і можуть завдати шкоди фундаментальним правам. Проте великі технології, які є рушійною силою революції у сфері штучного інтелекту, лобіюють припинення регулювання, яке могло б захистити суспільство.

Ці соціальні наслідки не є гіпотетичними і не обмежуються майбутнім. Наприклад, від Нідерландів і Великої Британії до Австралії упереджені алгоритми безпідставно звинуватили тисячі людей у шахрайстві з соціальними виплатами, що мало катастрофічні наслідки для їхніх життів і засобів до існування. У Нідерландах це торкнулося десятків тисяч людей, переважно з малозабезпечених сімей та/або мігрантів, що призвело до боргів, бездомності та психічних розладів через надзвичайний стрес, який вони пережили.

Структурні упередження

Протягом останнього року дискусії все частіше зосереджуються на найсучасніших системах штучного інтелекту, відомих як “фундаментальні моделі”, таких як ChatGPT. Їх можна використовувати для широкого спектру цілей. Системи часто є складними і поводяться так, що можуть здивувати навіть своїх розробників. Фундаментальні моделі навчаються на соціальних даних, і якщо ці дані містять структурні упередження – від расизму до інвалідності тощо – вони ризикують “запектися” в системі.

Через масштаби та обсяги необхідної пам’яті, даних і апаратного забезпечення, фундаментальні моделі розробляються переважно технологічними гігантами, такими як Google і Microsoft. Ці майже монополії в галузі ШІ підкріплюються мільярдними партнерствами зі “стартапами”, наприклад, між Amazon і Anthropic або Microsoft і OpenAI. За останній рік технологічні гіганти інвестували в OpenAI та Anthropic 16,2 мільярда доларів. Як пише AI Now Institute, “не існує ШІ без великих технологій”.

Тривожним є те, що ці ж фірми нещодавно звільнили або скоротили свої команди з питань етики. У деяких випадках вони вказували на деякі небезпеки систем, які вони розробляли.

Через ці ризики навесні Європейський парламент запропонував накласти певні зобов’язання на компанії, що розробляють моделі фундацій – в основному, обов’язок належної обачності. Компанії повинні показати, що вони зробили все можливе, щоб пом’якшити будь-які ризики для фундаментальних прав, перевірити якість даних, які використовуються для навчання цих систем штучного інтелекту, на предмет упередженості, а також зменшити їхній вплив на навколишнє середовище: центри обробки даних використовують величезну кількість електроенергії та води.

Величезна вогнева міць

Хоча публічно технологічні компанії закликають законодавців регулювати ШІ, в приватному житті вони чинять запеклий опір будь-якій формі регулювання фундаментальних моделей. І дослідження Corporate Europe Observatory показує, що для цього вони використовували свою величезну лобістську силу.

Цього року 66% засідань з питань ШІ за участю членів Європарламенту були присвячені корпоративним інтересам – у порівнянні з 56% за період 2019-22 років. З того моменту, як парламент чітко заявив про свій намір регулювати моделі фондів, великі технології швидко звернули свою увагу на Європейську комісію та країни-члени ЄС. Цього року 86% зустрічей високопосадовців Єврокомісії з питань штучного інтелекту відбулися за участю представників галузі.

Керівники Google, OpenAI і Microsoft прилетіли до Європи, щоб зустрітися з політиками найвищого рівня, включаючи членів комісії та глав держав. Сундар Пічаї з Google навіть зумів зустрітися з трьома членами комісії лише за один день.

Несподівана підтримка

Великі технології також отримали підтримку з несподіваного боку. Європейські стартапи у сфері штучного інтелекту Mistral AI та Aleph Alpha посилили тиск на уряди своїх країн – Франції та Німеччини.

Влітку Mistral AI відкрила лобістський офіс у Брюсселі разом з колишнім державним секретарем Франції з питань цифрового переходу Седріком О, який, як відомо, має зв’язок з президентом Франції Еммануелем Макроном, відповідальним за відносини з ЄС. О відіграв ключову роль у підштовхуванні французького уряду до протидії регулюванню моделей фондів в ім’я інновацій. Разом з Рене Оберманном, головою аерокосмічного та оборонного гіганта Airbus, та Жаннетт цу Фюрстенберг, партнером-засновником технологічного венчурного фонду La Famiglia, О був одним з ініціаторів відкритого листа, підписаного 150 європейськими компаніями, в якому стверджувалося, що Закон про ШІ “поставить під загрозу конкурентоспроможність та технологічний суверенітет Європи”.

Лобістський наступ продовжився і після літа. У жовтні французькі, німецькі та італійські чиновники зустрілися з представниками технологічної індустрії, щоб обговорити промислове співробітництво у сфері ШІ. Після саміту міністр економіки Німеччини Роберт Хабек заговорив як представник технологічної галузі: “Нам потрібне сприятливе для інновацій регулювання ШІ, в тому числі ШІ загального призначення”. Хабек наголосив на ризик-орієнтованому підході Закону про ШІ, який є темою для обговорення у сфері великих технологій, щоб уникнути регулювання розробки фундаментальних моделей.

Громадський інтерес

Опозиція з боку цих країн-членів ЄС серйозно зірвала “тристоронній” переговорний процес між інституціями ЄС. Але навіть коли згода буде досягнута, багато чого ще належить вирішити – Комісії в процесі імплементації актів і органам, що встановлюють стандарти, які визначатимуть, як саме буде реалізовано Закон про ШІ. Це залишає майбутні можливості для великих технологій впливати на процес.

Напередодні європейських виборів у червні та після безпрецедентної цифрової нормотворчості виникає питання, чи не стали великі технології занадто великими, щоб їх можна було регулювати. Від реклами стеження до непідзвітних систем штучного інтелекту, з його величезним лобістським потенціалом і привілейованим доступом до влади, великі технології занадто часто досягали успіху в запобіганні регулюванню, яке могло б стримати їхню токсичну бізнес-модель.

Подібно до того, як великий тютюновий концерн був врешті-решт відсторонений від лобіювання чиновників системи охорони здоров’я після багатьох років брудної лобістської тактики, настав час обмежити можливості великих технологічних компаній лобіювати ЄС у своїх інтересах – коли під загрозою опиняються суспільні інтереси.

Автор: Брем Вранкендослідник та учасник кампанії в Corporate Europe Observatory (CEO), що базується в Брюсселі та займається моніторингом лобізму.

Джерело: Social Europe, ЄС

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх