Новини України та Світу, авторитетно.

Штучний інтелект для пропаганди? Як цього уникнути

Як протистояти використанню штучного інтелекту (ШІ) з метою дезінформації та поширення фейків? Це питання обговорювали на медіафорумі DW у Бонні (Global Media Forum, GMF). Учасники заходу звернули увагу на дедалі більшу кількість прикладів, коли ШІ використовують авторитарні режими у своїх цілях.

Так, напередодні саміту миру в Швейцарії, який відбувся 15 і 16 червня, соцмережу X заполонили фотографії відомих людей з їхніми фейковими цитатами чотирма європейськими мовами. За кілька годин кількість публікацій перевищила 120 тисяч. Такі знаменитості, як Дженніфер Еністон, Люк Бессон, Елтон Джон, Ліонель Мессі та інші, нібито закликали зупинити допомогу Україні та робили песимістичні прогнози щодо майбутнього ЄС. Пости встигли набрати понад 500 тисяч переглядів. За даними проєкту “Блокувальник ботів”, за поширенням дезінформації стоїть мережа ботів “Двійник”, пов’язана з російською владою. За півроку боти провели щонайменше шість хвиль дезінформації, зокрема напередодні нещодавніх виборів до Європарламенту, зазначили дослідники.

Яка частина аудиторії приймає такі “цитати” за реальні – з’ясувати складно, але в інтернет-користувачів поступово виробляється звичка сумніватися в отриманій інформації. Таку думку висловила Ренате Ніколай (Renate Nikolay), що відповідає в Європарламенті за мережі комунікації, контент і технології. “Якщо поглянути на ситуацію п’ять років тому і порівняти з виборами до Європарламенту, то зараз люди набагато краще обізнані про можливості дезінформації”, – сказала вона, пояснивши, що викривати фейки допомагає система попередження за допомогою популярних соцмереж.

2024 року в ЄС почав працювати закон про цифрові послуги (Digital Services Act, DSA), який зобов’язує всі інтернет-платформи і соціальні мережі вживати заходів для захисту користувачів від нелегального контенту, товарів і послуг. Пости, що пропагують ненависть, агресію або містять дезінформацію, підлягають якнайшвидшому видаленню. Водночас європейській владі, вважає чиновниця ЄС, необхідно докладати зусиль для збереження контакту з російською аудиторією: “Ми повинні захищати доступ до свободи ЗМІ не тільки власного населення, а й у таких країнах, як Росія”. Робити це стає складніше, визнала вона, оскільки російська влада активніше використовує різні технології для блокування та ізоляції інтернету.

Технології Google – “срібна куля” в боротьбі з режимом Путіна

Про цю ж проблему говорив у своєму виступі на Global Media Forum у Бонні генеральний директор DW Петер Лімбурґ (Peter Limbourg), який нагадав, що більшості редакцій великих ЗМІ довелося закрити власні відділення на території Росії після повномасштабного вторгнення РФ в Україну – чимало незалежних медіа продовжили мовлення за кордоном. На його думку, зараз необхідно спрямувати зусилля на пошук технічних засобів для подолання інформаційної ізоляції Росії: “Інакше вони (населення Росії. – Ред.) будуть настільки ізольовані, що можуть втратити віру в зміни, оптимізм. Це такий північнокорейський сценарій”.

Сприяють ізоляції росіян від альтернативних джерел інформації такі корпорації, як Google, вважає засновник агрегатора новин True Story Лев Гершензон, який з 2005 до 2012 року очолював сервіс “Яндекс.Новости”. Він зазначив, що користувачам у Росії, які підписані на пропагандистські ЗМІ, у рекомендаціях Google пропонують інформаційні ресурси з тим самим дезінформаційним змістом. “Переважно це схвалені урядом сайти, я б сказав, що містять до 90 відсотків пропаганди. У підсумку незалежні новинні агентства залишаються майже невидимими в Росії”, – сказав IT-підприємець. Водночас значна частина населення продовжує використовувати технології великих IT-корпорацій, зазначає Гершензон: “85 відсотків населення Росії використовують мобільні телефони з технологією Android”. Співпраця великих корпорацій у частині доступу до альтернативної інформації для населення РФ могла б стати “срібною кулею” в боротьбі з пропагандою, вважає він.

Авторитарні режими вчаться використовувати ШІ

Інший приклад використання технологій ШІ з метою пропаганди – спроби скомпрометувати відомих політиків. Жертвою такої атаки у 2020 році стала міністерка закордонних справ Німеччини Анналена Бербок (Annalena Baerbock) – тоді її партія “Союз-90/Зелені” готувалася до парламентських виборів. Упродовж пів року в мережі поширювали різні фейкові фото з Бербок: на одному з колажів її обличчя поєднали з оголеним тілом дівчини. Підпис під фотографією стверджував, ніби в молодості Бербок бракувало грошей на життя, чого не було в реальності. “Штучний інтелект робить дезінформацію дешевшою, простішою та ефективнішою”, – попередила глава МЗС Німеччини у своєму виступі на медіафорумі DW у Бонні.

Розібратися в тому, в якому матеріалі було використано ШІ, а де ні – стає дедалі складніше через стрімкий розвиток технологій, нагадав анімаційний продюсер і професор медіаменеджменту в Кельнській школі бізнесу Міхаель Швертель (Michael Schwertel). Він продемонстрував ролик, у якому за допомогою звичайного софта можна за короткий час відредагувати відео: замінити один предмет на інший або зовсім видалити з кадру. Інструмент Luma AI, що набирає популярності, каже Швертель, дає змогу за 120 секунд створити анімоване відео хронометражем у кілька секунд з однієї фотографії: “Тільки уявіть, що за допомогою такої технології можна оживити фотографію будь-якого політика. І для цього не потрібно великого бюджету”. Ця технологія може допомогти добропорядним користувачам створювати якісні та бюджетні фільми, але в руках зловмисників це серйозна зброя.

Для боротьби з фейками створюють ШІ-детектори

Утім, він зазначив, що з’являються ШІ-детектори, які допомагають встановлювати, чи не є відео або аудіозапис фейковим. Через те, що більша частина баз даних закрита від публічного доступу, ідентифікувати весь інтернет-контент, як у випадку з текстами, поки що неможливо. “Але, думаю, це питання зможуть вирішити в найближчі 10 років. Вважаю, це буде такою постійною гонитвою технологій”, – каже експерт.

Він зазначив, що найбільшу небезпеку зараз становлять фейкові аудіозаписи, які активно почали використовувати шахраї. “Одній із жінок, з якою я спілкувався, надіслали діпфейк-аудіо з голосом її чоловіка. Начебто він опинився в лікарні і просив її терміново переслати на якийсь банківський рахунок 5 тисяч євро. Потім виявилося, що це не був її чоловік, але з’ясувати це швидко – не так просто”, – підсумував Швертель. Цю технологію вже кілька років використовують телеграм-канали, пов’язані з російською пропагандою. Так вони цькували вдову і матір Олексія Навального, щоб дискредитувати прихильників опозиційного політика, який загинув у російській в’язниці.

Олексій Стрельніков

Поделиться:

Опубліковано

у

Теги: