UA
UA RU
17 Січня 2025, 12:55
ШІ в руках маніпуляторів: як росіяни створюють фейкову реальність через нові цифрові технології
Антифейк

ШІ в руках маніпуляторів: як росіяни створюють фейкову реальність через нові цифрові технології

“Покровськ чекає вашої підтримки”, “Це захисник, якого забули привітати з днем народження”, “Авдіївка просить вашої молитви” — такі емоційні заклики дуже швидко стають вірусними в соціальних мережах. Проте чи знаєте ви, що вони не є реальними історіями, а лише продуктом штучного інтелекту, який активно використовується російською пропагандою для поширення вигідних наративів? Діпфейки із заявами політиків, сфабриковані сцени порятунку дітей чи тварин, зворушливі історії про українських військових — усе це лише “вершина айсберга” нових маніпуляцій кремлівських агітпропів. Детальніше про те, як штучний інтелект став інструментом інформаційної війни, читайте далі у статті.

Російська пропагандистська машина дедалі активніше використовує технології штучного інтелекту для ведення інформаційної війни проти України. 

Ще на початку 2024 року OpenAI, одна з провідних компаній у сфері розробки штучного інтелекту, виявила й зірвала п’ять масштабних онлайн-кампаній, спрямованих на маніпулювання громадською думкою і вплив на геополітичну ситуацію.

Згідно з повідомленням видання The New York Times, ці операції були організовані державними акторами та приватними компаніями з росії, Китаю, Ірану та Ізраїлю.

Зокрема, дві з виявлених компаній, які діяли в межах російської пропагандистської машини, активно використовували технології OpenAI для поширення дезінформації. 

«Одна з компаній використовувала технологію OpenAI для створення антиукраїнських коментарів, які були розміщені в соціальній мережі “X” англійською, французькою, німецькою, італійською та польською мовами. Інструменти компанії також використовувалися для перекладу та редагування статей, які підтримували росію у війні проти України, англійською та французькою мовами, а також для конвертації антиукраїнських новинних статей у дописи для Facebook», — йдеться в статті The New York Times.

ші скрини
Фото: ілюстративне / згенеровано штучним інтелектом

Виконавчий директор Інституту інформаційної безпеки Артем Біденко зазначив, що росія дуже активно використовує штучний інтелект з його великими можливостями.

«Росія сьогодні максимально й фактично безконтрольно використовує цифрову пропаганду зі штучним інтелектом та його великими можливостями для різноманітних картинок, мемів, відео та новин. Йдеться про сотні тисяч псевдоновин чи мемів. І жодна мережа не здатна долати це. Росія за допомогою таких примітивних інструментів не комунікує з аудиторією раціонально, а просто завалює її величезною кількістю брехливої інформації. У людей, які легко піддаються пропаганді, вона відкладається і формує викривлене ставлення до того, що відбувається в Україні», — пояснив експерт.

Російські “щупальця” пропаганди в TikTok

Соціальні мережі буквально заполонили повідомлення, створені за допомогою штучного інтелекту, що мають на меті викликати емоційні реакції у користувачів. Одним із найбільш поширених прикладів є відео та зображення, які активно публікують в TikTok, де нібито закликають молитися за українських військових, врятованих тварин або дітей. 

Подібні дописи часто створюються таким чином, щоб викликати співчуття чи інші сильні емоції. Завдяки цьому публікації набирають популярності, їхній контент поширюється швидко, а акаунти чи сторінки отримують велику аудиторію.

скриншот ШІ
Скриншоти з соціальної мережі “TikTok”

Майже всі публікації в TikTok, що поширюють контент, згенерований ШІ, мають спільні риси:

Невідомий власник сторінки

Більшість таких профілів не містять жодної інформації, яка дозволила б встановити реальну особу або організацію, яка за ними стоїть. Імена акаунтів часто зазначені російською мовою або є випадковим набором літер і цифр. Анонімність дозволяє приховати справжнє походження контенту і створює ілюзію звичайного користувача, який просто ділиться своїми думками чи емоціями.

Типові помилки ШІ

Контент має явні ознаки штучного походження, які можна розпізнати навіть неозброєним оком. Наприклад, неприродні розміри частин тіла чи об'єктів, неправильне розташування тіней, недоречні відблиски або злиття елементів, різкі переходи або розмиття кольорових зон, повторювані елементи, які виглядають як “клони” на зображенні.

Емоційний підпис

Підписи до публікацій зазвичай емоційно забарвлені, що викликає співчуття, обурення чи гордість, провокуючи користувачів на активні реакції. 

Заклик до взаємодії

Характерною рисою маніпулятивного контенту є прохання до аудиторії ставити вподобайки, поширювати контент чи залишати коментарі. Часто це формулюється через фрази на кшталт “подякуйте героям”, “поширте це, щоб більше людей побачили”, або “не залишайтесь байдужими”. Такі заклики працюють як тригер, який стимулює аудиторію до дій і забезпечує швидке поширення контенту в мережі.

скриншот ШІ
Скриншоти з соціальної мережі “TikTok”

На перший погляд, патріотичні публікації здаються невинними чи навіть благородними, адже вони викликають співчуття, почуття підтримки і єдності. Проте за яскравими закликами нерідко ховається добре продумана схема маніпуляції та обману, яка може мати серйозні наслідки. Тож як працює цей механізм?

Експерти Центру протидії дезінформації України пояснюють, що спочатку за допомогою штучного інтелекту фейкороб створює емоційно заряджені, клікбейтні картинки із закликами до підтримки, що стимулюють користувачів підписатися на акаунт або поширити публікацію.

Завдяки емоційній складовій ці дописи привертають увагу й мають значну популярність серед аудиторії, що сприяє активному залученню аудиторії.

ші скрини
Ще один приклад маніпулятивного підпису з метою дискредитації українського військового командування та влади. Скриншот з соціальної мережі “TikTok”

Після того, як сторінка досягає певної кількості підписників, її власник може видалити весь попередній контент, включаючи “патріотичні публікації”, і почати вести профіль вже з іншими цілями. Це може бути, наприклад, сприяння просуванню пропагандистських наративів, вигідних росії, або ж навіть продаж сторінки з уже зібраною активною аудиторією. 

Крім того, подібні акаунти можуть містити шкідливі посилання, які ведуть до шахрайських ресурсів, де користувачі можуть стати жертвами кіберзлочинів.

“Авдіївка просить молитви”, “Засипані снігом військові”, “Сьогодні мій ювілей, я лишився сам” — ШІ-зображення

Окрім TikTok, згенеровані штучним інтелектом зображення та дописи активно поширюються в інших популярних соціальних мережах, таких як Facebook, Instagram, Telegram та Twitter. Ці платформи стали зручним майданчиком для створення та поширення фейкового контенту, орієнтованого на виклик емоційного відгуку й залучення аудиторії.

Адже саме у Facebook та Instagram, наприклад, алгоритми заохочують публікації, які активно коментують, вподобають або поширюють. Це відкриває шлях для вірусного контенту, що часто базується на візуальних тригерах — фото, які викликають співчуття, гордість або інші сильні емоції.

Підписи до таких зображень зазвичай містять заклики до дії:

❌ “Привітайте нашого героя з днем народження!”

❌ “Поширте, якщо не байдужі до подвигів наших захисників!”

❌ “Сьогодні мій ювілей, я лишився сам. Ніхто не привітав мене”

скриншот ШІ
Усі ці скриншоти Східний Варіант віднайшов на просторі Facebook на абсолютно різних сторінках, з рекордною кількістю поширень, уподобань та коментарів

Деякі з подібних згенерованих зображень встигли дійсно наробити великого резонансу в суспільстві та були неодноразово викриті українськими фактчекерами. Серед них — фотофейк, де військовий спить у снігу (декілька років поспіль на подібному фото був російський окупант, проте через маніпулятивний підпис українці поширювали те фото зі словами подяки і молитви ЗСУ).  

Цього ж року завірусилося зображення, згенероване штучним інтелектом, на якому вже троє військових сплять на снігу.

скриншот ШІ
Скриншоти з соціальної мережі “Facebook” та “X”

Фактчекінгова ініціатива “НотаЄнота” виявила, що зображення було створено штучним інтелектом, а сама сторінка, яка поширювала цей контент, була створена в Індонезії і перепродана в серпні 2023 року з назвою “Українські війська”.

скриншот ШІ
Скриншот “НотаЄнота”

Варто також згадати хвилю публікацій 2023 року, в яких закликали молитися за порятунок українських військових в Авдіївці. Зображення, супроводжені підписами на кшталт “Авдіївка просить молитви”, поширювались в соціальних мережах і мали значний емоційний відгук.

скриншот ШІ
Скриншоти: StopFake

Подібні публікації, як і ті, що поширюються в TikTok, мають одну спільну мету — викликати емоційну реакцію та спонукати людей до активних дій, таких як коментарі, лайки і поширення. Ці дописи часто розповсюджуються ботами або автоматичними акаунтами, що допомагає швидко просувати сторінки та збільшувати їх популярність.

Зокрема, на сторінках з ШІ-зображеннями збирається велика аудиторія, яка не надто критично ставиться до побаченого у мережі та є вразливою до інформаційних маніпуляцій.

Діпфейки

Одним з важливих елементів у стратегії використання новітніх цифрових інструментів росією є також так звані діпфейки. Діпфейк — це штучно створені відео або аудіо матеріали, які виглядають дуже реалістично й створюються за допомогою технологій штучного інтелекту, що дозволяють маніпулювати зображеннями, голосами та навіть виразами обличчя.

Ви, напевно, пам’ятаєте відео, яке з’явилося на самому початку повномасштабного вторгнення, на якому Володимир Зеленський нібито розповідає про те, як “важко керувати країною”, та “оголошує” про капітуляцію України у війні з росією.

скриншот ШІ
Скриншоти з соціальної мережі “TikTok” та “Facebook”

Іншим, не менш резонансним, прикладом є фейкове відео із зображенням “генерала Залужного”, який звинувачує українське керівництво в загибелі свого помічника та закликає українців вийти на вулиці своїх міст, а військових — не підкорятися “злочинним наказам” влади.

Такі маніпуляції, в першу чергу, мають на меті дестабілізувати ситуацію всередині країни, посіяти хаос та розкол серед населення й військових.

Крім цього, восени 2024 року росіяни почали масово поширювати нібито відеозвернення з коментарем начальника Донецької ОВА Вадима Філашкіна про те, що в Покровську місцеві жителі організовують мітинги проти ЗСУ, конфліктують із військовими, а тому в громаді буде проведена примусова евакуація населення.

скриншот ШІ
Фото: телеграм-канал Вадима Філашкіна

Сам начальник ДонОВА відреагував на це в особистому телеграм-каналі та заявив, що голос на відео йому не належить, а озвучена інформація повторює російські пропагандистські наративи та покликана спричинити напруження в суспільстві. Детальніше про це, разом із рекомендаціями, як вберегтися від діпфейку, Східний Варіант вже писав раніше у матеріалі.

Російські щупальця пропаганди активно використовують всі доступні інструменти, прагнучи проникнути навіть у найменші щілини інформаційного простору. Це включає в себе маніпуляції через діпфейки, фальшиві новини та інші технології, які можуть змусити сумніватися в реальності подій. 

Ось кілька порад, як не потрапити на гачок пропагандистського контенту

✅ Перевіряйте джерело інформації;

✅ Уважно ставтеся до деталей у відео та аудіо: технічні маніпуляції в діпфейках часто проявляються через невиразні або неприродні рухи губ, погляд або аномальні шуми в аудіотреках.

✅ Будьте обережні з емоційно забарвленими повідомленнями: пропагандистський контент часто спрямований на виклик емоційної реакції (страх, гнів, розчарування). Якщо повідомлення викликає сильні емоції — найімовірніше цей контент є маніпулятивним.

***

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Поділитись:
Розбір

34 млн грн на благоустрій прифронтової громади? Або що відбувається навколо бюджету Покровська на 2025 рік

Історія

10 років з обстрілу мікрорайону "Східний" у Маріуполі: як росіяни брехали про трагедію

Розбір

Мови надазовських греків під загрозою зникнення? Чому громадськість бʼє на сполох

Що відбувається

Аварія російських танкерів у Керченській протоці: які наслідки для Азовського моря та Надазовʼя

Рішення

Як маріупольці заснували соціальне підприємство в Чернівцях і допомагають дітям з особливими освітніми потребами

Антифейк

Фейковий "контроль за мігрантами": чим жителям ТОТ загрожує новий репресивний закон росії

Репортаж

Як працює Краматорське медичне об’єднання з початку повномасштабного вторгнення

Антифейк

ШІ в руках маніпуляторів: як росіяни створюють фейкову реальність через нові цифрові технології

24 Січня П’ятниця
21:59

Донеччина отримала тисячу ноутбуків для школярів: їх надав Уряд ОАЕ (відео)

21:37

Уряд схвалив створення Агенції національної єдності

20:48

У DeepState констатують, що битва за Велику Новосілку добігає кінця

20:16

Росіяни гатять по Родинському з усіх видів озброєння: у місті досі близько 1 700 людей (відео)

18:27

Від початку доби на фронті відбулося 117 бойових зіткнень: де найбільше

17:59

Пам'ять Рідним полеглого Луганського прикордонника Володимира Даценка вручили орден "За мужність" III ступеня (фото)

17:49

Розбір 34 млн грн на благоустрій прифронтової громади? Або що відбувається навколо бюджету Покровська на 2025 рік

34 млн грн на благоустрій прифронтової громади? Або що відбувається навколо бюджету Покровська на 2025 рік
17:45

Єрмак: путін хоче домовлятися про долю Європи — без Європи та про Україну — без України

16:56

Українські захисники на Куп'янському напрямку зупинили 13 одиниць броні російських загарбників (відео)

16:43

У державному бюджеті на 2025 рік на програму субсидій та пільг передбачено 42,3 млрд грн, — Шмигаль

16:30

Судитимуть 5 жителів Луганщини, які допомагали ворогу проводити псевдореферендум

16:13

39 жителів Лисичанської громади отримають одноразову грошову допомогу від МВА

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: