Штучний інтелект у політиці – це набагато більше, ніж просто діпфейки

Президентські кампанії вже давно адаптують свою рекламу та електронні листи до конкретних груп. Тепер це може зробити будь-який політик.

Минулого тижня, напередодні праймеріз у Нью-Гемпширі, деякі виборці штату отримали робо-дзвінок нібито від президента Джо Байдена. На відміну від інших подібних заздалегідь записаних дзвінків, що нагадують людям про необхідність проголосувати, цей був з іншим проханням: “Не турбуйтеся про те, щоб прийти на виборчі дільниці”, – говорив голос. Краще “прибережіть свій голос для листопадових виборів”.

Повідомлення було дивним, навіть безглуздим, але голос на лінії був схожий на голос президента. “Що за купа нісенітниць!” – вигукнув він в одному місці. А ідентифікатор абонента показав, що дзвінок надійшов від колишнього голови Демократичної партії Нью-Гемпшира, повідомляє Associated Press. Але цей рободзвінок, схоже, був згенерований штучним інтелектом. Хто і навіщо його створив, залишається загадкою.

Хоча цей трюк, швидше за все, не мав реального впливу на результат виборів – Байден переміг, як і очікувалося, з великим відривом, – він яскраво проілюстрував один з багатьох способів, як генеративний ШІ може впливати на вибори. Ці інструменти можуть допомогти кандидатам легше донести свої меседжі, але вони також можуть дозволити будь-кому створювати зображення і кліпи, які можуть обдурити виборців. Багато з того, як ШІ вплине на політику, було в кращому випадку спекулятивним, але, цілком ймовірно, світ скоро отримає відповіді на деякі питання. У 2024 році більше людей матимуть можливість проголосувати, ніж будь-коли раніше, причому вибори відбудуться не лише в США, а й у Європейському Союзі, Індії, Мексиці та інших країнах. Це рік виборів зі штучним інтелектом.

До цього моменту значна частина уваги до ШІ та виборів була зосереджена на глибоких фейках, і не безпідставно. Загроза, що навіть те, що, здавалося б, зафіксовано на плівці, може виявитися фальшивкою, стає зрозумілою, по-справжньому страшною і більше не є гіпотетичною. При кращому виконанні і в більш тісній гонці, можливо, щось на кшталт фальшивого рободзвінка Байдену не було б несуттєвим. Кошмарний сценарій не потребує уяви: В останні дні напружених національних виборів у Словаччині минулої осені з’явилися глибоко сфальсифіковані аудіозаписи, на яких один з основних кандидатів обговорює плани фальсифікації результатів голосування (і, зокрема, подвоєння ціни на пиво).

Незважаючи на це, є певні причини скептично ставитися до цієї загрози. “Діпфейки були наступною великою проблемою, яка виникне в найближчі шість місяців, вже близько чотирьох років”, – сказав мені Джошуа Такер, співдиректор Центру соціальних медіа та політики Нью-Йоркського університету. Люди лякалися їх і перед виборами 2020 року, потім писали статті про те, чому загрози не матеріалізувалися, а потім продовжували лякатися їх і після виборів. За словами Такера, це відповідає загальній тенденції ЗМІ в останні роки перебільшувати загрозу спроб навмисного введення виборців в оману: Академічні дослідження показують, що дезінформація може становити відносно невелику частку новин, які споживає середньостатистичний американець, що вона сконцентрована серед невеликої меншості людей, і що, зважаючи на те, наскільки поляризована країна, вона, ймовірно, не змінює багато думок.

Проте надмірне занепокоєння щодо “глибоких фейків” може стати проблемою саме по собі. Якщо першочергове занепокоєння полягає в тому, що людей можуть обдурити, то занепокоєння другого порядку полягає в тому, що страх перед “глибокими фейками” призведе до того, що люди почнуть не довіряти будь-чому. Дослідники називають цей ефект “дивідендом брехуна”, а політики вже намагалися відкинути несприятливі ролики як створені штучним інтелектом: Минулого місяця Дональд Трамп неправдиво заявив, що в атакуючій рекламі був використаний ШІ, щоб виставити його в поганому світлі. “Глибокий фейк” може стати “фейковими новинами” 2024 року – нечастим, але справжнім явищем, яке кооптують як засіб дискредитації правди. Згадайте сумнозвісне твердження Стіва Беннона про те, що спосіб дискредитувати ЗМІ – це “затопити зону лайном”.

Штучний інтелект не змінив фундаментальних принципів; він лише знизив виробничі витрати на створення контенту, незалежно від того, чи призначений він для обману, чи ні. З цієї причини експерти, з якими я спілкувався, зійшлися на думці, що штучний інтелект, швидше за все, не створить нової динаміки, а лише посилить існуючу. Президентські кампанії з їхніми бездонними казначействами та розгалуженим штатом вже давно мають можливість орієнтуватися на конкретні групи виборців за допомогою персоналізованих повідомлень. Вони можуть мати тисячі даних про вас, отриманих шляхом збору інформації з публічних документів, профілів у соціальних мережах і від комерційних брокерів – дані про вашу віру, расу, сімейний стан, кредитний рейтинг, хобі, проблеми, які вас мотивують. Вони використовують все це для мікротаргетування виборців за допомогою онлайн-реклами, електронних листів, текстових повідомлень, стуку в двері та інших видів повідомлень.

Маючи у своєму розпорядженні генеративний ШІ, місцеві кампанії тепер можуть робити те ж саме, сказала мені Зеве Сандерсон, виконавчий директор Центру соціальних медіа та політики Нью-Йоркського університету. Великі мовні моделі, як відомо, добре імітують, і кампанії можуть використовувати їх для миттєвого створення повідомлень на конкретній мові громади. Мер Нью-Йорка Ерік Адамс використовував програмне забезпечення зі штучним інтелектом для перекладу свого голосу на такі мови, як їдиш, іспанська та мандаринська. “Зараз дуже дешево займатися такою масовою персоналізацією, – сказала мені Лора Едельсон, професор комп’ютерних наук у Північно-Східному університеті, яка вивчає дезінформацію та дезінформацію. “Це зробить цей контент простішим у створенні, дешевшим у створенні і зробить його доступним для більшої кількості спільнот”.

Така легкість може підірвати і без того вразливу виборчу інфраструктуру демократичних країн. Працівники виборчих комісій на місцевому та державному рівнях зазнають нападів з 2020 року, а штучний інтелект може погіршити ситуацію. Сандерсон розповів мені, що державні службовці вже завалені запитами на підставі Закону про свободу інформації, які, на їхню думку, згенеровані штучним інтелектом, що потенційно забирає у них час, необхідний для виконання своєї роботи. За його словами, ці чиновники також висловлюють занепокоєння, що генеративний ШІ прискорить переслідування, з якими вони стикаються, оскільки зробить процес написання і відправлення листів ненависті практично без зусиль. (Наслідки можуть бути особливо важкими для жінок).

Так само він може становити пряму загрозу для виборчої інфраструктури. Раніше цього місяця трійка чиновників з питань кібербезпеки та виборів опублікувала статтю в журналі Foreign Affairs, в якій попередила, що досягнення в галузі штучного інтелекту можуть уможливити більш численні та витончені кібератаки. Така тактика завжди була доступна, скажімо, іноземним урядам, і минулі атаки – особливо російський злам електронної пошти Джона Подести у 2016 році – спричинили цілковитий хаос. Але зараз практично будь-хто – незалежно від того, якою мовою він розмовляє і як він вміє писати – може розіслати сотні фішингових електронних листів, написаних вільною англійською прозою. “Наслідки застосування штучного інтелекту для кібербезпеки виборів і чесності виборів, ймовірно, не отримують належної уваги”, – сказала мені Кет Даффі, старший науковий співробітник з питань цифрової політики і кіберпростору в Раді з міжнародних відносин.

Як реалізуються всі ці загрози, значною мірою залежатиме від контексту. “Раптом на місцевих виборах людям, які не мають ресурсів, стає дуже легко виробляти такі типи контенту, які менші партії з меншими грошима потенційно ніколи не побачили б раніше”, – каже Сандерсон. Лише минулого тижня з’явилося згенероване штучним інтелектом аудіо, на якому один політик з Гарлема критикує іншого. Нью-Йорк має, мабуть, найпотужнішу екосистему місцевих новин серед усіх міст Америки, але в інших місцях, у громадах, де немає контролю з боку ЗМІ та механізмів перевірки фактів, які існують на національному рівні, подібні аудіозаписи можуть спричинити ще більший хаос.

Письменник і технолог Усама Хільджі (Usama Khilji) розповів мені, що відмінності між країнами можуть бути ще більш екстремальними. У Бангладеш прихильники правлячої партії використовують фейки для дискредитації опозиції. Тим часом у Пакистані колишній прем’єр-міністр Імран Хан, який минулого року опинився у в’язниці після того, як кинув виклик військовим, використовував депфейки, щоб виголошувати “промови” перед своїми прихильниками. У країнах, які розмовляють мовами з меншою кількістю текстів в Інтернеті, які можуть проковтнути магістри права, інструменти штучного інтелекту можуть бути менш складними. Але саме в цих країнах, швидше за все, технологічні платформи приділятимуть найменше уваги поширенню “глибоких фейків” та іншої дезінформації, сказав мені Едельсон. Індія, Росія, США, ЄС – ось на чому зосередяться платформи. “Все інше – Намібія, Узбекистан, Уругвай – “буде другорядним”, – сказав він.

Найбільше уваги привертатимуть більші чи багатші країни, а найбільше занепокоєння викликатимуть більш гострі питання. Таким чином, ставлення до впливу штучного інтелекту на вибори нагадує ставлення до ризиків технології загалом. Минуло трохи більше року з моменту появи ChatGPT, трохи більше року ми чуємо про те, що це означатиме масову ліквідацію “білих комірців”, інтеграцію чат-ботів у всі сфери життя суспільства, початок нового світу. Але основні способи впливу штучного інтелекту на життя більшості людей залишаються на задньому плані: Пошук Google, автозаповнення, пропозиції Spotify. Більшість з нас схильні турбуватися про потенційні фальшиві відео, які обманюють половину нації, а не про потік запитів на доступ до інформації, які вже ховають посадових осіб, що беруть участь у виборах. Якщо такий спосіб мислення має свою ціну, світ може заплатити її цього року на виборах.

Джейкоб Стерн

The Atlantic

Поделиться:

Схожі записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх