Закон про штучний інтелект: замаскована дерегуляція

Лазівки в Законі про штучний інтелект, що з’явилися в результаті переговорів про трилогію пізно ввечері в п’ятницю, можуть дозволити великим корпораціям прослизнути.

Після інтенсивних переговорів інституції Європейського Союзу досягли попередньої домовленості щодо Закону про штучний інтелект. З огляду на те, що остання така трилогія стосувалася 21 критичної невирішеної проблеми всього за 36 годин, а деталі того, що було продано, залишаються незрозумілими, повний аналіз доведеться почекати, поки не буде опубліковано остаточний акт.

Однак відомі шість наступних стовпів закону.

Ризик-орієнтований підхід: збережено початковий ризик-орієнтований підхід Європейської комісії. Системи штучного інтелекту з високим ризиком, які можуть завдати шкоди здоров’ю, безпеці, основним правам, навколишньому середовищу, демократії та верховенству права, підпадають під особливі вимоги. Однак було додано низку умов фільтрації, щоб гарантувати, що «лише» справжні заявки з високим ризиком підпадають під вимоги законодавства.

Заборонене використання: системи штучного інтелекту, які спричиняють неприйнятний ризик, заборонені. Це стосується тих, хто маніпулює людською поведінкою або використовує вразливі місця людей, а також нецілеспрямованезішкрібання зображень облич, розпізнавання емоцій на робочому місці та в школах (із застереженням з міркувань безпеки, щоб розпізнати, наприклад, якщо водій засинає), соціальний бал, біометричну категоризацію та деякі випадки предиктивної поліцейської діяльності.

Базові моделі: як великі системи, здатні виконувати широкий спектр відмінних завдань, базові моделі повинні відповідати конкретним зобов’язанням щодо прозорості, перш ніж вони будуть розміщені на ринку. Були запроваджені суворіші правила для «високоефективних» базових моделей із системним ризиком, можливості та продуктивність яких значно вищі за середні та можуть розподіляти системні ризики по всьому ланцюжку створення вартості.

Правила включають необхідність проведення модельних оцінок, оцінки та пом’якшення системних ризиків, проведення змагального тестування, забезпечення кібербезпеки та звітування перед комісією про серйозні інциденти та енергоефективність. Однак, поки не будуть опубліковані гармонізовані стандарти ЄС, розробники штучного інтелекту загального призначення, що несе системний ризик, можуть покладатися на кодекси практики для дотримання регламенту.

Основні права: «Системи штучного інтелекту розробляються та впроваджуються для шкідливих та дискримінаційних форм державного нагляду. Штучний інтелект у правоохоронних органах непропорційно націлений на і без того маргіналізовані спільноти, підриває юридичні та процесуальні права та уможливлює масове стеження», – заявили нещодавно 16 організацій громадянського суспільства. У відповідь на цей тиск до закону було включено обов’язок проводити оцінку впливу на фундаментальні права (FRIA). Це стосується державних органів та приватних структур, які надають послуги загального інтересу (лікарні, школи, банки, страхові компанії) та розгортають системи підвищеного ризику.

Однак закон передбачає кілька винятків для правоохоронних органів, які дозволять ретроспективну біометричну ідентифікацію в режимі реального часу для запобігання терористичним атакам або визначення місцезнаходження жертв чи підозрюваних у вчиненні заздалегідь визначеного списку тяжких злочинів. Надзвичайна процедура також дозволить правоохоронним органам розгорнути в екстрених обставинах інструмент штучного інтелекту з високим ризиком, який не пройшов процедуру оцінки відповідності.

Механізм примусового виконання: порушення каратимуться штрафами, які можуть становити від 35 мільйонів євро або 7 відсотків світового річного обороту до 7,5 мільйонів євро або 1,5 відсотка від обороту за менші порушення, такі як надання недостовірної інформації. Однак більш «пропорційні» обмеження стосуватимуться адміністративних штрафів для малих і середніх підприємств та стартапів.

Фізичні або юридичні особи можуть подати скаргу до органу ринкового нагляду та очікувати, що їхня скарга буде розглянута відповідно до спеціальних процедур цього органу. Громадяни також матимуть право скаржитися на системи штучного інтелекту та отримувати пояснення щодо рішень, заснованих на системах високого ризику, які впливають на їхні права.

Структура управління: закон засновує Офіс ШІ та Раду ШІ. Офіс перебуватиме в межах комісії, яка наглядатиме за найсучаснішими моделями штучного інтелекту, сприятиме стандартам і забезпечуватиме дотримання правил. Наукова група незалежних експертів консультуватиме щодо моделей фундаменту, у тому числі з високим рівнем впливу.

Правління, що складається з представників держав-членів, діятиме як координаційна платформа та консультативний орган комісії. Консультативний форумзацікавлених сторін (промисловість, малі та середні підприємства, стартапи, громадянське суспільство та наукові кола) надасть технічну експертизу.

Лазівки в законодавстві

На прес-конференції пізно ввечері в п’ятницю Тьєррі Бретон, комісар з питань внутрішнього ринку, Карме Артігас Бругаль, державний секретар з питань цифровізації та штучного інтелекту, що представляє головування Іспанії, а також Брандо Беніфей і Драгош Тудораче, доповідачі Європейського парламенту, висловили переконання, що закон збалансував просування інновацій і захист суспільства. Проте кілька лазівок ризикують підірвати захисну роль закону.

Додані умови фільтра можуть призвести до того, що деякі програми з високим ризиком вислизнуть за межі його сфери. Обов’язкові FRIA та заборона систем біометричної ідентифікації підриваються серйозними винятками, і інструменти штучного інтелекту з високим ризиком можуть бути розгорнуті з вимогою терміновості. Системи штучного інтелекту розпізнавання емоцій на робочому місці мають бути заборонені, але дозволені з міркувань безпеки — де починається і закінчується безпека, і чи матимуть працівники реальне право голосу?

Великі штрафи за порушення можна обійти, використовуючи кваліфікацію «пропорційних обмежень»: більші компанії будуть стимулюватися довіряти стартапам свої найризикованіші проєкти зі штучного інтелекту. Механізми подання скарг залишаються незрозумілими, окрім посилань на «спеціальні процедури» та право громадян «отримувати пояснення». А структура управління вітає зацікавлені сторони суспільства лише як постачальників технічної експертизи для органу, що представляє держави-члени, що може приглушити голос громадянського суспільства до нечутності.

Справжня мета

Бретон підтвердив: «Закон про штучний інтелект — це набагато більше, ніж звід правил — це стартовий майданчик для стартапів і дослідників ЄС, щоб очолити глобальну гонку штучного інтелекту». Це підсумовує реальну мету, яку переслідують Комісія та Рада ЄС від початку законодавчого процесу: розробити правову базу, яка допоможе ЄС позиціонувати себе як світового лідера у сфері ШІ, якнайменше обмежуватиме розвиток сектору та надаватиме максимальну підтримку ШІ-компаніям, що працюють у ЄС.

Якщо коротко, то це дерегуляційне регулювання.

Автор: Аїда Понсе Дель Кастільйостарший науковий співробітник Європейського інституту профспілок.

Джерело: Social Europe, ЄСМК

Поделиться:

Схожі записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх