Докази на користь регулювання генеративного ШІ через загальне право

Закон Європейського Союзу про штучний інтелект може стати на заваді розвитку технологій штучного інтелекту, який залежить від наявності контенту, створеного людиною, в якості навчальних даних. На противагу цьому, судовий розгляд у кожному конкретному випадку може виявитися більш ефективним механізмом для вирішення незліченних проблем, що виникають у зв’язку з новими технологіями.

ЛОНДОН / ГОНКОНГ – Прийняття Закону Європейського Союзу про штучний інтелект, що наближається, є останньою спробою блоку закріпити свій статус регуляторного центру. Цей амбітний законодавчий акт, який має на меті запровадити суворі правила щодо технологій штучного інтелекту, підкреслює прихильність ЄС до проактивного управління.

Тим часом Сполучені Штати пішли зовсім іншим шляхом. Незважаючи на масштабний виконавчий указ, виданий президентом Джо Байденом у жовтні 2023 року, в країні все ще відсутня цілісна нормативно-правова база у сфері ШІ. Натомість американські суди переповнені судовими процесами, в яких провідні фірми, що займаються розробкою штучного інтелекту, звинувачуються в порушенні авторських прав, порушенні конфіденційності даних, наклепі та дискримінації.

З огляду на те, що судові процеси є дорогими і часто затягуються на роки, стратегія ЄС може здатися більш далекоглядною. Але система загального права насправді може виявитися більш ефективним механізмом для вирішення незліченних проблем, пов’язаних з генеративним ШІ. Це особливо очевидно в галузі авторського права, де все більше художників, видавців і авторів втягуються в юридичні баталії з такими гігантами ШІ, як Microsoft, OpenAI і Meta, за використання матеріалів, захищених авторським правом.

В основі цих суперечок лежить питання про те, чи має навчання великих мовних моделей (ВММ) кваліфікуватися як добросовісне використання – класифікація, яка звільняє технологічні компанії від виплати компенсацій творцям контенту. Зі свого боку, Закон ЄС про ШІ містить положення, що вимагає розкриття матеріалів, захищених авторським правом, що дозволяє власникам авторських прав відмовитися від участі в навчальних базах даних ШІ. Є надія, що ця вимога прозорості полегшить переговори про компенсацію між творцями контенту та компаніями, що розробляють ШІ.

Але всеохоплююче регулювання ЄС може мати зворотні наслідки, якщо європейські регулятори не зможуть знайти належний баланс між інноваціями та справедливістю у вирішенні питання добросовісного використання. Для початку, обмеження використання матеріалів, захищених авторським правом, для навчання на магістерських програмах може призвести до збільшення витрат на збір даних, що потенційно перешкоджатиме зростанню індустрії ШІ. Microsoft, наприклад, висловила занепокоєння, що вимога виплачувати компенсацію власникам авторських прав може непропорційно вплинути на малі та середні фірми, особливо ті, що мають обмежені фінансові та юридичні ресурси.

Водночас дедалі більше коментаторів і політиків попереджають, що без забезпечення справедливої компенсації творцям контенту креативний сектор, особливо новинна індустрія, яка зазнає утисків, може занепасти. Ці побоювання посилилися в червні, коли видавничий гігант Axel Springer оголосив про плани скоротити 200 робочих місць у німецькому таблоїді Bild і замінити деякі з цих ролей штучним інтелектом. Ця тенденція зберігається протягом останніх кількох місяців, відображаючи хвилю звільнень журналістів, спричинену кризою на ринку реклами.

Криза новинної індустрії може мати серйозні наслідки, що виходять за межі безпосередньої втрати робочих місць. Майбутній розвиток технологій штучного інтелекту значною мірою залежить від наявності високоякісного контенту, створеного людиною. Як показують дослідження, навчання АІ-моделей на даних, згенерованих штучним інтелектом, може призвести до їхнього пошкодження, потенційно аж до повного виходу з ладу.

Безумовно, знайти правильний баланс між цими двома суперечливими політичними пріоритетами буде нелегко. У нещодавній статті ми провели перше аналітичне дослідження дилеми добросовісного використання. Ми визначили три найважливіші фактори, які впливають на результати регулювання: наявність даних для навчання ШІ, якість моделей і конкурентна динаміка галузі.

Наприклад, уявіть собі сценарій, в якому даних для навчання ШІ багато, особливо в нових сферах, таких як перетворення тексту у відео. За таких обставин регулювання мало впливає на кількість даних, доступних для стартапів, які прагнуть вдосконалити свої LLM. Застосовуючи більш ліберальний підхід до добросовісного використання, регулятори могли б дозволити компаніям покращити якість своїх моделей, тим самим збільшуючи прибутки як компаній, що займаються розробкою ШІ, так і творців контенту, а також підвищуючи загальний добробут споживачів.

Але ця динаміка може швидко змінитися, коли даних для навчання моделей штучного інтелекту – особливо моделей, які значною мірою покладаються на новий контент – не вистачає. Це особливо актуально для відносно зрілих технологій, таких як генерація тексту, оскільки такі компанії, як OpenAI, залежать від безперервного припливу новинного контенту для навчання та оновлення своїх чат-ботів.

За такого сценарію дозвільна політика добросовісного використання може послабити стимули для створення нового контенту, тим самим зменшуючи пул даних, доступних для навчання ШІ. Цей дефіцит буде особливо гострим на висококонкурентних ринках, що характеризуються високим попитом на свіжі навчальні дані. Крім того, зростаюча складність моделей ШІ може посилити кризу дефіциту навчальних даних, змушуючи творців надмірно покладатися на ШІ при створенні контенту.

Ці висновки спонукають нас виступати за регуляторну модель, яка може бути адаптована до конкретних умов і пристосована до них. Закон ЄС про штучний інтелект, широкий мандат якого поширюється на всі компанії, незалежно від їхньої галузевої приналежності, у поєднанні з темпами розвитку штучного інтелекту та конкурентною структурою ринку підвищує ймовірність серйозних непередбачуваних наслідків. Отже, система загального права, яка ґрунтується на індивідуальних судових рішеннях, може виявитися більш прийнятною інституційною основою для регулювання ШІ.

Автори:

S. Алекс Янг – професор управлінських наук та операцій у Лондонській бізнес-школі;

Анжела Хуюе Чжан, доцентка права та директорка Центру китайського права ім. Філіпа К. Х. в Університеті Гонконгу, є авторкою майбутньої книги “Високий дріт: Як Китай регулює великі технології та керує своєю економікою (Oxford University Press, 2024).

Джерело: PS, США

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх