Новини України та Світу, авторитетно.

Атака на демократію

Штучний інтелект загрожує виборам, підриваючи процес прийняття рішень за допомогою персоналізованої пропаганди та маніпульованого охоплення.

Штучний інтелект (ШІ) ставить під загрозу цілісність демократичних виборів, систематично підриваючи основи демократичного прийняття рішень через персоналізовану пропаганду, підрив довіри до інформації та маніпуляції з цифровим охопленням. Нещодавно AI Democracy Initiative проаналізувала вплив штучного інтелекту на вибори в шести країнах. Дослідження показало, що хоча жодна дезінформаційна подія, спричинена штучним інтелектом, не мала значного впливу на вибори, штучний інтелект докорінно змінює динаміку та можливості в цифровому просторі.

Ці зміни викликають особливе занепокоєння, оскільки вони не лише ставлять під загрозу чесність окремих виборів, а й можуть підірвати довіру до ЗМІ, політики та інформації в довгостроковій перспективі. Нагальним завданням для ЄС і Німеччини є ефективний захист демократичних процесів, які є вразливими до ШІ. Зростаюча присутність ШІ на політичній арені несе в собі значні ризики для демократичних процесів. Особливо слід підкреслити три основні небезпеки:

По-перше, штучний інтелект спрощує масове виробництво переконливої пропаганди. На відміну від традиційних дезінформаційних кампаній, АІ можна використовувати для дуже швидкого створення персоналізованого контенту, націленого на індивідуальні страхи і надії конкретних груп виборців. Зокрема, в усьому світі можна спостерігати поширення такої АІ-пропаганди через соціальні мережі у вигляді мемів. Мем – це гумористичний, часто заснований на зображеннях контент, який вірусним чином поширюється в інтернеті і вбирає в себе культурні тенденції, внутрішні жарти або соціальні явища. Цей тип маніпуляції контентом особливо ефективний, оскільки викликає емоційні реакції, навіть якщо розум усвідомлює його штучне походження. На цьому тлі стає зрозуміло, що маркування контенту, створеного штучним інтелектом, є важливим, але не допомагає протистояти емоційному впливу ШІ-пропаганди.

Все більше і більше контенту, який ми бачимо в Інтернеті, піддається маніпуляціям, часто навіть повністю згенерованим штучним інтелектом – і ця тенденція зростає.

Другою, глибшою проблемою є систематична ерозія довіри до нашого інформаційного простору. Все більше і більше контенту, який ми бачимо в Інтернеті, є маніпульованим, часто навіть повністю згенерованим штучним інтелектом – і ця тенденція зростає. Коли контент, створений штучним інтелектом, і глибокі фейки стають повсюдними, довіра до того, що є автентичним, а що ні, зменшується. Діпфейки революціонізують маніпулювання сприйняттям, підриваючи довіру до автентичного контенту і призводячи до зростання цинізму, який також можна охарактеризувати як “кризу реальності”. Це фундаментально підриває демократичний дискурс: без спільної фактологічної бази конструктивні політичні дебати стають неможливими. Небезпека полягає не лише в окремих фрагментах неправдивої інформації, а й у загальній втраті довіри до всієї політичної комунікації.

По-третє, глибокі фейки не можна розглядати без впливу соціальних мереж. Це пов’язано з тим, що ці платформи слугують потужними векторами поширення, які охоплюють мільйони користувачів. Вони також уможливлюють штучне створення видимості та охоплення. Різні актори використовують цілеспрямовану партизанську тактику для запуску скоординованих кампаній і закріплення наративів у центрі суспільства. Що для цього потрібно? Експертиза платформи та доступ до цифрової інфраструктури – від ботів і фейкових акаунтів до інфлюенсерів. Штучне посилення певних позицій може спотворювати публічні дебати та впливати на поведінку виборців протягом тривалого періоду часу. Особливо непокоїть те, що межу між справжньою участю громадян і зрежисованими кампаніями зі штучним інтелектом стає дедалі важче розпізнати.

Різні актори використовують партизанську тактику для запуску скоординованих кампаній та закріплення наративів у центрі суспільства.

Цей технологічний розвиток порушує фундаментальні питання: Якщо контент, створений штучним інтелектом, вже неможливо відрізнити від контенту, створеного людиною, одне лише технічне регулювання не видається достатнім рішенням. Але замість того, щоб впадати в цифровий пораженство, слід зосередитися на зміцненні стійкості демократії. Відповідь полягає не в тому, щоб намагатися ідентифікувати кожен окремий глибокий фейк, а в розвитку критично важливої цифрової публічної сфери та міцних демократичних інститутів. Як і у випадку з традиційними медіа, вирішальне значення має не технічна перевірка автентичності кожного контенту, а створення надійних джерел інформації та прозорих комунікаційних структур.

З огляду на ці фундаментальні загрози демократичному процесу прийняття рішень, потрібні рішучі контрзаходи: щоб систематично використовувати позитивний потенціал штучного інтелекту, державні установи та політичні партії повинні спільно працювати над створенням цифрової інфраструктури для участі громадян. Ключовим моментом є розробка діалогових платформ з підтримкою ШІ, які об’єднують різні точки зору та забезпечують конструктивний обмін думками між політиками та громадянами. Успішні приклади, такі як “передвиборчий чат” на парламентських виборах у Німеччині, показують, як інструменти штучного інтелекту можуть посилити політичну участь та обізнаність виборців.

Угода про справедливість, яку вже укладено між партіями щодо використання ШІ у виборчих кампаніях, є важливим першим кроком. Однак її ефективність залежатиме від того, наскільки послідовно домовленості реалізовуватимуться на практиці та як демократична громадськість реагуватиме на порушення. Фактом є також те, що не всі сторони підписали угоду. Крім того, необхідні широкі інформаційні кампанії, які не лише застерігатимуть від механізмів маніпуляцій, але й висвітлюватимуть потенціал штучного інтелекту для усвідомленої політичної участі. Розуміння обох аспектів має вирішальне значення для цифрового суверенітету виборців.

У довгостроковій перспективі важливою є співпраця між технологічними компаніями, науковими колами та громадянським суспільством. Оператори платформ повинні забезпечити більшу прозорість своїх алгоритмів і розробити механізми, які стримуватимуть маніпуляції та сприятимуть конструктивному політичному діалогу. Політики покликані створити умови, які сприятимуть інноваціям і водночас захищатимуть демократичні процеси. Лише завдяки скоординованим зусиллям усіх зацікавлених сторін штучний інтелект може реалізувати свій потенціал для динамічної демократії, водночас ефективно обмежуючи ризики, пов’язані з ним.

Федеральні вибори 2025 року покажуть, чи достатньо вжитих заходів для захисту цілісності демократичного процесу. Угода про справедливість і запропоновані рекомендації щодо дій є важливими першими кроками. Однак без послідовної прихильності всіх зацікавлених сторін – від операторів платформ до громадянського суспільства – маніпулятивна сила ШІ загрожує назавжди зашкодити нашому демократичному процесу прийняття рішень.

Автори: Д-р Катя Муньос – науковий співробітник DGAP, досліджує впливових осіб, штучний інтелект і демократію. Вона вивчала міжнародні відносини та дослідження миру і безпеки.

Емма Лауманн – аналітик даних в Ініціативі штучного інтелекту/демократії DGAP. Вона вивчала політологію і є студенткою магістратури з соціальних наук.

Джерело: IPG-Journal, ЄС

МК

Поделиться:

Опубліковано

у

Теги: