Новини України та Світу, авторитетно.

Витонченість операції за допомогою штучного інтелекту, націленої на сенатора, вказує на майбутнє схем deepfake

Вашингтон (AP) — За даними Управління безпеки Сенату, цього місяця передова операція з глибокого фейку була спрямована на сенатора Бена Кардіна, демократа, голову Комітету із закордонних справ Сенату, що є останньою ознакою того, що зловмисники звертаються до штучного інтелекту в спробах обдурити провідних політичних діячів Сполучених Штатів.

Експерти вважають, що подібні схеми стануть більш поширеними тепер, коли технічні бар’єри, які колись існували навколо генеративного штучного інтелекту, зменшилися. У повідомленні служби безпеки Сенату, надісланому в офіси Сенату в понеділок, йдеться, що спроба «виділяється своєю технічною складністю та правдоподібністю».

Схема була зосереджена навколо колишнього міністра закордонних справ України Дмитра Кулеби. Офіс Кардіна отримав електронний лист від людини, яку вони вважали Кулебою, згідно з повідомленням, чиновника, якого Кардін знав під час минулої зустрічі.

Коли вони зустрілися для відеодзвінка, зв’язок «за зовнішнім виглядом і звуком відповідав минулим зустрічам». Аж поки той, хто дзвонив під виглядом Кулеби, почав задавати питання на кшталт «Чи підтримуєте ви ракети великої дальності на території Росії?» Мені потрібно знати вашу відповідь», що Кардін і його співробітники запідозрили, що «щось не так», — йдеться в повідомленні Сенату.

«Спікер продовжив, ставлячи сенаторові політичні запитання щодо майбутніх виборів», імовірно, намагаючись змусити його прокоментувати політичного кандидата, згідно з повідомленням Ніколетт Ллевелін, директора служби безпеки Сенату. «Сенатор та їхні співробітники припинили розмову та швидко зв’язалися з Держдепартаментом, який підтвердив, що це був не Кулеба».

Кардін у середу описав цю зустріч як «злісний актор, який намагався ввести в оману розмову зі мною, видаючи себе за відому особу».

«Одразу з’ясувавши, що людина, з якою я спілкувався, не той, за кого себе видавав, я завершив розмову, і мій офіс вжив швидких заходів, сповістивши відповідні органи», — сказав Кардін. «Зараз ця справа перебуває в руках правоохоронних органів, і ведеться комплексне розслідування».

Офіс Кардіна не відповів на запит про додаткову інформацію.

Генеративний штучний інтелект може використовувати величезну обчислювальну потужність, щоб цифрово змінити те, що відображається на відео, іноді змінюючи фон або тему відео в режимі реального часу. Цю ж технологію також можна використовувати для цифрової зміни аудіо чи зображень.

Подібні технології використовувалися в підлих схемах і раніше.

Фінансовий працівник із Гонконгу заплатив 25 мільйонів доларів шахраю , який використав штучний інтелект, щоб видати себе за фінансового директора компанії. Політичний консультант використав штучний інтелект, щоб імітувати голос президента Джо Байдена та закликати виборців не голосувати на праймеріз у Нью-Гемпширі, що призвело до того, що консультант зіткнувся з більш ніж двома десятками кримінальних звинувачень і отримав мільйони доларів штрафів. Експерти з догляду за літніми американцями вже давно хвилюються, що дипфейки на основі штучного інтелекту посилять фінансові шахрайства, націлені на людей похилого віку.

І представники служби безпеки в Сенаті, і експерти зі штучного інтелекту вважають, що це може бути лише початком, враховуючи, що нещодавні стрибки в технології зробили схеми, подібні до схеми проти Кардена, не тільки більш правдоподібними, але й легшими в реалізації.

«Протягом останніх кількох місяців технологію, яка дозволяє передати дипфейк прямого відео разом із дипфейком живого аудіо, стало простіше та легше інтегрувати разом», — сказала Рейчел Тобак, експерт із кібербезпеки та генеральний директор SocialProof Security, який додав, що попередні ітерації цієї технології мали очевидні ознаки того, що вони фальшиві, від незграбного руху губ до моргання людей у ​​зворотному напрямку.

«Я очікую, що в майбутньому станеться більше подібних інцидентів», — сказав Сівей Лю, експерт зі штучного інтелекту та професор Університету Буффало. «Будь-хто, хто має в голові якийсь злий намір, тепер може здійснити такий вид атаки. Це може виникнути з політичної точки зору, але це також може виникнути з фінансової точки зору, як-от шахрайство чи виявлення крадіжки».

Меморандум для персоналу Сенату повторив цю думку, сказавши співробітникам переконатися, що запити на зустрічі є автентичними, і попередив, що «інші спроби будуть зроблені в найближчі тижні».

Р. Девід Едельман, експерт зі штучного інтелекту та національної безпеки, який роками очолював політику кібербезпеки в Білому домі, описав цю схему як «складну розвідувальну операцію», яка «відчувається досить близькою до передового» за тим, як вона поєднує використання технології штучного інтелекту з більш традиційними розвідувальними операціями, які розпізнають зв’язки між Кардіном і українським чиновником.

«Вони визнали існуючі відносини між цими двома сторонами. Вони знали, як вони можуть взаємодіяти – час, спосіб і як вони спілкуються», – сказав він. «Операція розвідки є складною».

Автор: Ден Меріка

Джерело: АР, США

МК

Поделиться:

Опубліковано

у

Теги: