ДИПФЕЙКИ ТА ШІ: як росія використовує сучасні технології у пропаганді

Стежать за кожним. У росії запровадили моніторингову систему “Профілактика”, яка за допомогою штучного інтелекту збирає й аналізує інформацію про підлітків у мережі. Особлива увага українським дітям, які перебувають на тимчасово окупованих територіях.

Як сучасні технології перетворилися на зброю в руках окупантів? Які ще цифрові методи застосовує загарбник для поширення власної пропаганди? Розкаже Даніїл Снісар.

Кремль взявся за патріотичне виховання підлітків і вибрав для цього сучасні інструменти. Шпигунство, незаконне стеження, збирання і зберігання особистої інформації та навіть втручання у приватне життя дітей.

Це все цілком легально працює на болотах. Ба більше – кожна українська дитина, яка живе на тимчасово окупованих територіях, або яку проти волі вивезли за поребрик – зараз під пильним оком Великого Брата з балалайкою, у руках якого штучний інтелект і алгоритми.

На всіх, хто потрапив під моніторинг у “Профілактиці”, заводиться окрема картка з фото, адресою та телефоном конкретного підлітка, з докладним аналізом його соцмереж – аж до підрахунку коментарів, лайків і репостів. У результаті такого аналізу кожній дитині надається “коефіцієнт деструктивності” та “коефіцієнт опозиційності”.

“Профілактика” – комплексна програма російського уряду, яку розробили на основі технологій нейромереж, для ідентифікації дітей – потенційних зрадників “вєлікой родіни”.

Про це пише російське видання “Медуза”. Платформу спеціально запровадили для передовсім окупованих територій, щоб виявляти проукраїнську молодь.

Не лише діти та не лише в окупації. Сьогодні росія задіює увесь наявний арсенал алгоритмів для стеження, фактично, за кожним із нас.

Ігор Розкладай, заступник директора Центру демократії та верховенства права, експерт з медійного права та модерації контенту:

Ми самі даємо величезний масив даних, починаючи від просто зв’язків людей, їх контактні дані до геолокації, до тих матеріалів, які ми пересилаємо через месенджер, бо воно все зберігається на сервері.

Цілей, в яких ворог охоче використовує ці дані – безліч. А ось постраждати може і репутація, і гаманець. Окреме місце тут відведе дипфейкам. Під ударом будь-хто.

Ваше обличчя можуть використати й для пропагандистських відео, і для монетизації. Або для всього відразу.

Знайомтеся. Це – Ейпріл. А це – Наташа. Вони обидві росіянки й обидві працюють на китайському інтернет-ринку, агітуючи за зближення москви з Пекіном. Та є одне але: ці дівчата – витвір дипфейку.

А це – Ольга, українська блогерка, яка навчається у США. Каже: була приголомшена, коли підписники почали надсилати їй повідомлення з покликанням на акаунти в китайських соцмережах. А там – дівчата з її обличчям просувають відверту пропаганду.

Ольга Лоєк, блогерка:

У сотнях відео, які я переглянула більшість клонів розповідають про важливість підтримки економіки росії. Мене як українку це обурює. Поки моя родина рятується під час повітряних тривог, росія атакує Україну – я бачу свою копію, яка співчуває росії.

Майже 40 тисяч акаунтів використали згенероване штучним інтелектом обличчя Ольги для просування пропагандистських наративів і продажу російської продукції в Піднебесну. І наразі лише кілька десятків із них – дівчині вдалося заблокувати.

Росіяни завжди пам’ятатимуть і цінуватимуть Китай. Поки всі інші віддаляються від росії – лише Пекін допомагає.

Ігор Розкладай, заступник директора Центру демократії та верховенства права, головний експерт з медійного права та модерації контенту у соціальних мережаx:

Вони дійсно можуть становити небезпеку, особливо коли відтворюється на маленьких пристроях, де не сильно видно оце втручання, де не сильно видно деталізацію, де не видно, скажімо, що щось не так з губами, і воно очевидно може впливати на ту чи іншу аудиторію.

Протягом двох років повномасштабної війни російське ІПСО неодноразово просувало дипфейки для дискредитації перших осіб і дестабілізації ситуації в країні.

Вадим Міський, програмний директор ГО “Детектор Медіа”:

Якщо ми пригадаємо, якими були перші дипфейки на самому початку повномасштабного вторгнення. Пам’ятаєте, тоді з Зеленським був дипфейк. Він на фоні банера в Офісі Президента, начебто, стоїть. Там було видно, що голова наче приклеєна, вона погано повертається. І те, що зараз вони роблять, наприклад із Даніловим – це вже якісна робота, зовсім іншого класу.

Для того, щоб створити дипфейк не потрібно володіти спеціальними навичками. Ринок пропонує десятки навіть мобільних застосунків для створення підробних відеозображень.

Для того, щоб почати роботу нам потрібне відео з нашим персонажем, якого ми будемо генерувати – це Дмитро Медвєдєв. Ми беремо це відео, згодовуємо його нейромережі, вона на ньому навчається, намагається зрозуміти усі рухи.

Кільки кліків, 10 хвилин часу й ось Дмитро Медвєдєв – уже союзник України.

Сьогодні я звертаюсь до українців. Брати! Насправді, я вболіваю за вас! роками кремль убивав Росію, намагався задовольнити свої імперські амбіції за рахунок великої нації українців. Боріться до кінця. І не вірте путіну! З вами Бог, з вами сила. За вами – найбільший полководець Степан Бандера. Перемога буде за Вами. Слава Україні!

Та навіть найякісніший дипфейк – можна відрізнити від оригіналу. Необхідно звертати увагу на міміку, якість відео і рухи обличчя у кадрі.

Previous post НАТО, ЄС і «заморожені» російські активи. Чи направлять ці гроші на підтримку України
Next post Знищення енергетики України – експертка розповіла про стратегію тисячі мурашників з відновлення потужностей — Укрaїнa