Новини України та Світу, авторитетно.

ЄС ухвалює перший закон про захист від ризиків штучного інтелекту. Головною загрозою вважають не вимирання людини

Євросоюз першим у світі ухвалює закон, який регулюватиме розвиток систем штучного інтелекту (ІІ) та захищатиме від них громадян. У середу за законопроект проголосував Європарламент. Це не кінець процесу: три гілки влади ЄС – Комісія, Парламент та Рада – мають узгодити остаточний варіант закону, його набрання чинності очікується не раніше 2025 року.

У законі системи ІІ поділено на групи за ступенями ризику, які вони несуть для європейських громадян та споживачів, і для кожної групи запроваджено свої обмеження та заходи контролю.

Цілком заборонені будуть, наприклад, системи, створені для того, щоб впливати на підсвідомість людей, а також системи біометричного розпізнавання, що працюють у режимі реального часу.

Системи, що створюють контент – такі, як ChatGPT – повинні, зокрема, чітко маркувати свою продукцію та не видавати її за творчість живих людей.

“Депутати Європарламенту хочуть гарантувати, щоб системи ІІ контролювалися людьми, були безпечними, прозорими, відстежуваними, не дискримінували користувачів і сприяли захисту навколишнього середовища”, – пояснювала пресслужба Європарламенту в травні, під час підготовки законопроєкту.

У дебатах, що відбулися 13 червня, депутати Європарламенту найбільше уваги звернули на пункти про системи розпізнавання осіб. У проекті пропонується дозволити застосування таких систем тільки постфактум (а не в режимі реального часу), тільки для пошуку злочинців, терористів і зниклих людей і тільки за рішенням суду.

Впевнена більшість євродепутатів – за таке рішення, але невелика меншість закликає зовсім заборонити системи розпізнавання осіб.

Від цієї меншості у дебатах виступив, зокрема, Патрік Брайєр – єдиний у Європарламенті представник Піратської партії Німеччини.

“Ми відкриваємо скриньку Пандори, ми створюємо тотальну поліцейську державу, як у Китаї”, – заявив Брайєр (цитата з синхронного перекладу).

Камера стеження і прапор у Пекіні
Ліві, зелені та “пірати” в Європарламенті кажуть, що навіть дуже обмежене застосування систем розпізнавання осіб з ІІ веде до свавілля спецслужб і зневажання прав громадян, як у Китаї REUTERS

Німецький “пірат” заявив, що системи розпізнавання осіб помиляються у 99% випадків, і це веде до затримання невинних людей.

“Вимога санкції суду, запропонована жорсткими консерваторами – це чиста формальність, димова завіса для прикриття масового стеження […] Не можна робити нормою культуру недовіри і ставати на бік авторитарних режимів, які застосовують ІІ для придушення громадянського суспільства”, – заявив Брайєр перед дебатами.

Його численні опоненти заперечували з трибуни Європарламенту, що вимагати повної заборони систем розпізнавання наївно, що вони дуже корисні у пошуку терористів або, наприклад, зниклих дітей, і що порівняння з Китаєм є некоректним, оскільки в Європі правоохоронні органи та суди реально захищають права громадян.

Дискримінація

На думку заступника голови Єврокомісії Маргрете Вестагер, яка відповідає за антимонопольну політику, одна з найнагальніших проблем, пов’язана з розвитком штучного інтелекту, – це дискримінація.

В ексклюзивному інтерв’ю Бі-бі-сі Вестагер заявила, що більш актуальною, порівняно з вимиранням людства у стилі “Термінатора”, проблемою є потенціал ІІ щодо посилення упередженості чи дискримінації. За її словами, цьому сприяє величезний обсяг даних, що одержуються з інтернету та використовуються для навчання моделей та інструментів.

Вестагер заявила Бі-бі-сі, що регулювання ІІ необхідне для протидії найбільшим ризикам, які несе нова технологія.

За її словами, це має ключове значення у тих випадках, коли штучний інтелект використовується для прийняття рішень, які можуть вплинути на здатність людини добувати кошти для існування, наприклад, на отримання іпотечного кредиту.

“Ймовірно, [ризик вимирання] може існувати, але, на мою думку, ймовірність цього досить мала. Я думаю, що ризики ІІ більше пов’язані з тим, що люди будуть піддаватися дискримінації, їх не сприйматимуть такими, якими вони є”, – сказала вона. – Якщо банк використовує ІІ для вирішення питання про те, чи можете ви отримати іпотечний кредит, або якщо це соціальні служби вашого муніципалітету, то хочеться бути впевненим, що ви не піддаєтеся дискримінації через вашу стать, колір шкіри або місце проживання.

Оскільки ІІ продовжує швидко розвиватися, при виробленні нових правил потрібно виявляти прагматизм, вважає Вестагер.

“Краще отримати, скажімо, 80% зараз, ніж 100% ніколи, тому давайте почнемо, а коли навчимося – повернемось до цього питання та скоригуємо правила”, – сказала вона.

На її думку, ризик того, що ІІ може бути використаний для впливу на наступні вибори, “виразно існує”.

Групи ризику

У Законі про ІІ, який центральні європейські органи розробляли два роки – і нещодавно внесли нові правки у зв’язку з появою феномену ChatGPT-4 – системи штучного інтелекту розділені на чотири групи: група “неприйнятного ризику”, група “високого ризику”, що “генерують” системи та група “обмеженого ризику”.

До групи “неприйнятного ризику” зараховано:

  • системи, створені для на підсвідомість людей
  • системи соціального рейтингу, що поділяє людей на категорії щодо їх поведінки, соціально-економічного стану та інших особистих характеристик
  • системи розпізнавання у режимі реального часу

Усі вони будуть у Європі заборонені, виняток зроблено для використання систем розпізнавання правоохоронними органами постфактуму та з дозволу суду.

До групи “високого ризику” потрапили

  • системи, що застосовуються в товарах та послугах, які до ЄС підпадають під ліцензування в рамках захисту споживачів. Це, наприклад, іграшки, автомобілі, авіація, медична апаратура
  • системи управління критично важливою інфраструктурою
  • системи, що застосовуються в освітніх установах або у роботі з персоналом фірм та установ
  • системи, що застосовуються у правоохоронних органах, роботі з мігрантами та біженцями та в охороні кордонів

Всі ці системи ІІ будуть оцінюватися до їх впровадження та під час застосування та реєструватися у спеціальній базі даних ЄС.

Власники систем, що генерують контент , таких як ChatGPT, повинні будуть

  • помічати створений ними контент
  • програмувати їх так, щоб вони не створювали протизаконний контент
  • оприлюднити списки даних, захищених авторським правом і на яких навчалася система

Всі інші системи ІІ включені до групи “низького ризику” , від них потрібно лише бути достатньо відкритими – щоб користувач знав, що має справу з ІІ, і мав достатньо інформації, щоб ухвалити обґрунтоване рішення, чи ним користуватися.

Поделиться:

Опубліковано

у

Теги: