Невідомий намагався обдурити сенатора США за допомогою deepfake, видаючи себе за Кулебу, – NYT


Невідомий намагався обдурити сенатора США за допомогою deepfake, видаючи себе за Кулебу, - NYT

Фото: глава МЗС України Дмитро Кулеба (Віталій Носач, РБК-Україна) Автор: Валерія Поліщук

Американський сенатор Бенджамін Кардін, голова Комітету з міжнародних відносин, став жертвою фейкового дзвінка, де невідомий видавав себе за українського чиновника. Це посилює побоювання щодо спроб зловмисників впливати на політику США або добувати секретну інформацію.

Про це повідомляє РБК-Україна з посиланням на The New York Times.

Минулого четверга офіс сенатора отримав електронного листа, нібито від імені міністра закордонних справ України Дмитра Кулеби, із проханням провести відеоконференцію щодо Zoom.

Під час дзвінка людина мала вигляд і говорила як Кулеба, але викликала підозри, ставлячи політично забарвлені запитання, зокрема про підтримку обстрілу Росії ракетами дальнього радіусу дії.

Сенатор перервав розмову і повідомив Держдепартамент США, який підтвердив, що це був самозванець.

Хоча в електронному листі сенатської служби безпеки не було зазначено, що сенатор – це Кардін, двоє співробітників Сенату, знайомі з цим питанням, підтвердили, що йдеться саме про нього.

Кардін, демократ від штату Меріленд, також частково підтвердив цей епізод у своїй заяві в середу ввечері. У ній він визнав, що “в останні дні якийсь зловмисний суб’єкт зробив обманну спробу поговорити зі мною, видаючи себе за відому людину”. При цьому Кардін не сказав, що цією людиною був Кулеба, і не зробив жодних посилань на Україну.

Представники розвідки попередили, що іноземні суб’єкти, включно з Росією, Іраном і Китаєм, використовують deepfake і штучний інтелект для втручання у вибори.

Deepfake – це технологія, заснована на штучному інтелекті, яка дає змогу створювати реалістичні, але підроблені відео або аудіо. Іншими словами, це свого роду фотошоп для відео, але на набагато вищому рівні. За допомогою deepfake можна замінити обличчя однієї людини на обличчя іншої в наявному відео, створити відео з людиною, яка говорить слова, які вона ніколи не вимовляла, або навіть імітувати голос знаменитості.

Технологія deepfake використовує нейронні мережі для навчання на величезних обсягах даних. Ці мережі аналізують риси обличчя, міміку, рухи і голос людини, щоб створити цифрову модель. Потім цю модель можна використовувати для створення нових зображень або відео з цією людиною, але зі зміненими характеристиками.

Цю технологію використовували для наслідування громадських діячів, зокрема, 2022 року в соціальних мережах було поширено відео, на якому президент України Володимир Зеленський неправдиво оголошує про капітуляцію у війні з Росією.

Нагадаємо, на початку вересня Кулеба написав заяву про звільнення з посади міністра закордонних справ. Джерела РБК-Україна повідомляли, що Кулебі можуть запропонувати очолити одне із важливих посольств України за кордоном.

Термінові та важливі повідомлення про війну Росії проти України читайте на каналі РБК-Україна в Telegram.

www.rbc.ua