Генеративний ШІ потребує більше, ніж легкий дотик

Чат-боти, такі як ChatGPT, піднімають величезні питання щодо захисту даних та моралі, які регулятори повинні вирішити.

Італійські користувачі не можуть отримати доступ до ChatGPT. Чат-бот на базі штучного інтелекту, запущений у листопаді 2022 року, зараз у країні геозаблокований. Наприкінці минулого місяця, після розслідування, Італійське управління із захисту даних (DPA, також відоме як Garante) прийняло знаковий запобіжний наказ, щоб тимчасово обмежити локальну обробку даних італійських користувачів компанією OpenAI, що базується в США, яка розробляє та керує платформою.

Провідні засоби масової інформації і навіть впливові міністри поскаржилися на крок DPA як на нерозсудливий. Технологічні експерти та стартапери звинуватили її у змові проти глобальної конкурентоспроможності країни. Однак історія складніша, і, оскільки Іспанія та Європейський Союз додають до уваги контроль за даними, пропонує важливі уроки.

«Кошмар конфіденційності»

У всьому світі виникають широкі побоювання щодо мерзенних наслідків та «ризиків для суспільства», які створюють генеративні моделі штучного інтелекту, що спонукає експертів та бізнес-лідерів закликати до мораторію на оновлення, сприяти дослідженням та впровадженню протоколів безпеки. Хоча для тих, хто захоплений «цифровими чарами», цей обережний підхід може здатися неолуддитським сюжетом, розгорнутим в академічних і політичних колах, він стосується фундаментальних цінностей у демократичних суспільствах. Дійсно, технологічним компаніям часто надається «нормативна широта, яка не надається іншим секторам».

Як продемонстрували експерти, великі мовні моделі (LLM) являють собою «кошмар конфіденційності». Вони засновані на обробці гігантських масивів даних, нашкрябаних з нерозкритих джерел. Це критично залежить від вільної базової інфраструктури персональних даних, в деяких випадках навіть власницької або захищеної авторським правом – не кажучи вже про конфіденційні дані, якими користувачі можуть безтурботно ділитися під час взаємодії з цими системами.

Професіонали починають використовувати додатки генеративного ШІ як недорогих помічників. Інформація, яку вони вводять – проект трудового договору, бюджетний звіт для перегляду або надсекретні дані – може бути результатом для запитів інших. Такий нігілізм приватності викликає занепокоєння.

Витоки даних

22 березня виконавчий директор OpenAI Сем Альтман написав у Twitter, що у компанії «виникла значна проблема в ChatGPT через помилку в бібліотеці з відкритим кодом». Іншими словами, деякі користувачі мали повний доступ до заголовків історій розмов інших користувачів, де зберігаються чати. Компанія визнала, що «почувається жахливо з цього приводу». Аналогічний витік даних був зафіксований щодо інформації про платежі абонентів.

Обидва збої, «схоже, вказують на те, що OpenAI має доступ до користувацьких чатів», повідомляє BBC з Сан-Франциско. У паралельній реальності це вторгнення в інформаційне самовизначення не залишилося б непоміченим, викликавши суспільне обурення і репутаційну шкоду. Однак не вперше передбачуваний корпоративний «руйнівник», схоже, насолоджувався величезною карткою «вийти з в’язниці».

Італійська DPA повідомила ChatGPT про низку серйозних порушень. По-перше, компанія не надавала жодної інформації користувачам та суб’єктам даних, чиї дані були зібрані OpenAI (як того вимагає стаття 13 Загального регламенту захисту даних). По-друге (і що примітно), він не виявив жодної надійної законної бази для масового збору та обробки персональних даних (стаття 6, GDPR).

По-третє, він продемонстрував неповагу до точності: чат-бот був схильний вигадувати деталі, які виявилися неправдивими. Нарешті, відсутність будь-якого механізму перевірки віку може піддати дітей відповідям, невідповідним їхньому віку та обізнаності, тоді як послуга була адресована лише користувачам старше 13 років відповідно до умов OpenAI.

Чітко мандат

Реакція Альтмана була зверхньою. Тим не менш, питання, порушені Гаранте, були чітко передбачені GDPR ЄС. Використовуючи свої прерогативи «для введення тимчасового або остаточного обмеження, включаючи заборону на обробку» (стаття 58(2)(f), GDPR), він подав приклад, який незабаром можуть наслідувати інші національні органи.

OpenAI дали тижні, щоб пояснити, як він має намір потрапити в європейські огорожі. Однак він вирішив припинити свою службу в Італії. Цей крок викликав невизначеність для всіх операторів на місцях. Однак після зустрічі між компанією та DPA було визначено кілька умов, які мають бути виконані до кінця квітня для скасування заборони. Якщо вона не зможе продемонструвати, що критерії «законного інтересу» або «згоди» виконані, компанії можуть загрожувати штрафи, санкції або остаточна заборона.

Реакція OpenAI типова для деяких технологічних компаній, коли вони вважають, що можуть обійти універсальні обмеження: вибірково піти з ринку, звинуватити регулятора та мобілізувати користувачів (та інших, хто потрапляє на цю презентацію) для захисту сервісу, що працює без обмежень. Це нагадує світанок епохи платформ, коли доставка їжі та інші гравці гіг-економіки обходили законодавство, виходячи з дивного припущення, що інновація є справжньою лише тоді, коли для неї шукають ретроспективного прощення, а не попереднього дозволу. Залишається з’ясувати, якою буде відповідь, враховуючи, що аналогічні суперечності можуть виникнути незабаром після запуску Європейською радою із захисту даних спеціальної цільової групи «для сприяння співпраці та обміну інформацією про можливі примусові дії».

Підхід до легкого дотику

Запропоноване регулювання ЄС щодо штучного інтелекту передбачає мінімальні зобов’язання щодо прозорості для конкретних систем, зокрема, там, де використовуються чат-боти або «глибокі фейки». Проєкт тексту був презентований у квітні 2021 року та проходить законодавчу перевірку.

Однак поява складних моделей генеративного ШІ показує необхідність широкого розуміння ШІ, застосування якого може бути як зловмисним, так і доброякісним. Ризики включають масову дезінформацію, генерування упередженого та стереотипного контенту та масштабні маніпуляції (інакше заборонені запропонованим регулюванням). Цей розрахунок повинен підштовхнути співзаконодавців ЄС переглянути підхід легкого дотику, маючи лише зобов’язання щодо повідомлення для систем з меншим ризиком.

Ми стверджували, що, незважаючи на мету створення модульної та цільової структури, технології штучного інтелекту класифікуються «абстрактним» та «контекстно-нейтральним» способом у рамках розробленого регламенту, без урахування конкретних випадків використання. Це не дозволяє оцінити багатоцільовий, універсальний та адаптивний характер систем штучного інтелекту. Окрім обов’язків розробників, структура лише ледве вирішує питання поступового розширення використання систем за межі цілей, для яких вони спочатку призначалися та розроблялися. Співзаконодавці повинні розглянути загальний підхід Ради ЄС, додавши положення про ситуації, коли системи штучного інтелекту можуть використовуватися для багатьох різних цілей.

У цьому є ще один, часто нехтуваний, вимір. Соціологи Дженна Баррелл і Маріон Фуркад написали, що «те, що стоїть за фетишем штучного інтелекту, — це глобальна цифрова конвеєрна лінія мовчазних, невидимих чоловіків і жінок, які часто працюють у нестабільних умовах, багато хто в постколоніях глобального Півдня». А розслідування Time задокументувало, що OpenAI залежить від експлуатації кенійських, угандійських та індійських робітників.

Щоб зменшити токсичний і небезпечний контент, компанія передала маркування фірмі Sama, що базується в Сан-Франциско, чиї працівники за контрактом повинні були позначати такі ситуації, як «сексуальне насильство над дітьми, зоофілія, вбивства, самогубства, тортури, самоушкодження та інцест» як невідповідні матеріали. Ці завдання маркування, класифікації та фільтрації отримували винагороду від 1,32 до 2 доларів на годину, відповідно до ролей та стажу.

Величезні побоювання

ChatGPT та його сестри, такі як DALL· E, Synthesia та MusicLM піднімають величезні технологічні, етичні, соціальні, екологічні та політичні проблеми. DPA просто вирішила проблему з точки зору захисту даних, яка на даний момент є одним з небагатьох наборів операційних правил, націлених на найперші фази життєвого циклу штучного інтелекту. Неєвропейські технологічні фірми, що мають справу з суб’єктами даних на базі ЄС, повинні дотримуватися тих самих правил, що й європейські компанії.

Першій відповіді OpenAI бракує моральної скрупульозності. Уявіть собі автомобільну компанію, яка не забезпечує обов’язкові ремені безпеки у своїх автомобілях і була так попереджена національним транспортним органом. Як судити про корпоративний вибір припинити продаж автомобілів у країні, а не виправити помилку?

Порушуючий норми дух технологічних компаній повинен вирішуватися менш м’якими реакціями, не дозволяючи розпливчастій проінноваційній риториці залишитися безальтернативною. Цифровий прогрес цілком може покращити спосіб нашого життя, роботи, навчання та взаємодії один з одним. Але нові технології повинні управлятися таким чином, щоб досягти соціально-економічної стійкості.

Автори: Антоніо Алоїзіє стипендіатом Марії Склодовської-Кюрі та доцентом європейського та порівняльного трудового права в юридичній школі IE Університету IE, Мадрид;

Валеріо Де Стефанопрофесор права в школі Осгуд Холл, Йоркський університет, Торонто.

Джерело: Social Europe, ЄС

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх