Уникнення антиутопії штучного інтелекту для працівників

Штучний інтелект вже сильно впливає на робочу силу в усьому світі. Його потрібно регулювати — і швидко

Навіть ті, хто з ентузіазмом ставиться до впливу штучного інтелекту (ШІ), визнають, що його потрібно регулювати. Але що саме потрібно регулювати і як?

Однієї небезпеки слід уникати. Уряди не повинні допустити, щоб у регуляторних дебатах домінували великі технологічні компанії та спекуляції щодо можливих ризиків майбутніх систем штучного інтелекту. Наприклад, нещодавній саміт з безпеки штучного інтелекту, організований урядом Великої Британії, був розкритикований за те, що він запросив керівників великих технологічних компаній, які створюють ризики, і залишив поза увагою працюючих людей, які страждають від наслідків.

Які безпосередні ризики штучного інтелекту для працівників?

Можливо, журі все ще не може сказати про вплив штучного інтелекту на кількість доступних робочих місць, але інші наслідки вже відчуваються на робочому місці. ОЕСР попереджає, що, хоча штучний інтелект може зменшити небезпечні завдання, він також може призвести до підвищення темпу та інтенсивності роботи, підвищення рівня стресу та створення ризиків для фізичної безпеки працівників. ОЕСР також наголошує на ризиках для психічного здоров’я, пов’язаних з алгоритмічним управлінням, зазначаючи, що «постійний і всеосяжний моніторинг та оцінка продуктивності на основі даних, які стали можливими завдяки штучному інтелекту», можуть змусити працівників «відчувати постійний контроль і тиск для роботи». Тож не дивно, що працівники, які піддаються алгоритмічному управлінню, менш позитивно ставляться до штучного інтелекту, ніж працівники, які взаємодіють з ним іншими способами.

Штучний інтелект все частіше використовується для підбору персоналу, від ідентифікації кандидатів до фінальних співбесід.

Інструменти спостереження та моніторингу на основі штучного інтелекту також створюють ризики для конфіденційності працівників. Багато веб-сайтів, що пропонують компаніям програмне забезпечення для моніторингу співробітників, в деяких випадках обіцяючи «повний контроль над комп’ютерами співробітників», швидше за все, будуть незаконними відповідно до правил ЄС щодо захисту даних, повідомляє ETUC. Повідомлення про те, що штучний інтелект використовується для виявлення ознак того, що працівники організовуються з метою руйнування профспілок, також викликають занепокоєння.

Подальший ризик полягає в тому, що автоматизація завдань, які раніше вимагали людських знань, може призвести до зниження кваліфікації професій, зробивши їх більш рутинними, уможлививши більш широке використання тимчасових контрактів і наймання менш кваліфікованих, низькооплачуваних працівників. Організація економічного співробітництва та розвитку (ОЕСР) попереджає, що «заробітна плата може знизитися для працівників, які опиняться втиснутими в меншу частку завдань через автоматизацію».

Штучний інтелект все частіше використовується для підбору персоналу, від ідентифікації кандидатів до фінальних співбесід. Упередженість може бути вбудована в системи штучного інтелекту через вибір параметрів і даних, а також через упередження в використовуваних даних (дані, які є неповними, неправильними, застарілими або нерепрезентативними для популяції в цілому). Відсутність прозорості в такому алгоритмічному прийнятті рішень ускладнює виявлення дискримінації, а працівникам дуже ускладнює використання правового захисту недискримінаційного законодавства.

Як регулювання може впоратися з ризиками, з якими стикаються працівники сьогодні?

По-перше, вся політика і регулювання повинні керуватися принципом людини в контролі. Штучний інтелект – це інструмент, який має допомагати людям, а не знімати з них відповідальність. Використання штучного інтелекту повинно, як мінімум, поважати людську гідність і права людини. Постачальники та роботодавці повинні бути прозорими перед працівниками, користувачами послуг та споживачами щодо використання штучного інтелекту, а організації повинні нести відповідальність за рішення, що приймаються ним. Штучний інтелект робить вкрай важливим покращення доступу людей до своїх даних та контролю над ними, якими володіють інші, будь то платформи соціальних мереж, роботодавці, уряд чи інші організації.

По-друге, і це більш конкретно, працівники повинні мати забезпечене законом право на інформування та консультації, а також на переговори з керівництвом щодо використання цифрових технологій. Роботодавці повинні бути зобов’язані повідомляти, яка технологія використовується і як, які дані про працівників збираються і як вони використовуються. Працівники повинні мати можливість вести колективні переговори з роботодавцями щодо реструктуризації, змін у практиці праці та умов праці, спричинених штучним інтелектом, а також щодо контролю над їхніми даними.

Уряди починають діяти, але потрібно зробити більше.

По-третє, має бути чітке зобов’язання щодо соціально справедливого переходу. Ці принципи, розроблені для керівництва країнами в управлінні переходом до низьковуглецевої економіки, також повинні застосовуватися для управління розробкою та впровадженням технологій. Уряди повинні визнати, що вони відіграють важливу роль в управлінні змінами та забезпеченні високого рівня зайнятості та рівня життя, а не просто залишають громади та регіони на поталу ринковим силам. Коли представник МВФ попереджає уряди готуватися до «значних збоїв на ринках праці» в результаті штучного інтелекту, важливо не лише взяти до відома, а й діяти.

ОЕСР відіграє важливу роль у формуванні необхідних правил і політики, і повинна не тільки допомагати гарантувати, що штучний інтелект «стимулює інновації» та «поважає права людини», як було заявлено на нещодавньому засіданні Ради міністрів, але й наполягати на тому, що штучний інтелект веде до сталого та інклюзивного процвітання.

Уряди починають діяти, але потрібно зробити більше. Нещодавній і широко розрекламований Закон ЄС про штучний інтелект визнає, що застосування штучного інтелекту на робочому місці є високоризикованим, і вимагає, щоб працівники були поінформовані про те, коли системи штучного інтелекту розгортаються в робочій силі. Але профспілки в Європі стурбовані тим, що зобов’язання щодо систем високого ризику, як і раніше, підлягають лише самооцінці постачальником, і закликають до спеціальної Директиви щодо алгоритмічних систем на робочому місці, щоб підтримувати принцип контролю людини та надавати працівникам і профспілкам можливість впливати на рішення щодо впровадження ШІ.

У нещодавньому виконавчому указі президента Байдена наголошується, що «наступні кроки в розвитку ШІ мають ґрунтуватися на поглядах працівників, профспілок, освітян і роботодавців на підтримку відповідального використання штучного інтелекту» і що «всім працівникам потрібне місце за столом, у тому числі шляхом колективних переговорів». Це позитивний крок уперед, і інші уряди повинні вжити аналогічних заходів, визнаючи, що колективні переговори мають важливе значення для формування штучного інтелекту, і закладаючи основу для правил і політики, які необхідні для захисту прав працівників і забезпечення того, щоб усі люди могли пожинати плоди інновацій у сфері штучного інтелекту.

З темпами технологічних інновацій не можна втрачати час.

Автор: Вероніка Нільссону червні 2023 року була призначена генеральним секретарем Консультативного комітету профспілок при ОЕСР (TUAC), а з травня 2022 року виконувала обов’язки генерального секретаря. Раніше вона очолювала відділ підтримки Глобального курсу в Директораті з питань зайнятості, праці та соціальних питань ОЕСР.

Джерело: IPSJournal, ЄС

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх