До чого тут «Pravda» і TikTok? Дослідники виявили російську мережу фейкових медіа

До чого тут «Pravda» і TikTok? Дослідники виявили російську мережу фейкових медіа

Новини світу

В останні роки Росія модернізувала свої підходи до інформаційної війни та виявили дослідники. Вони кажуть, що замість очевидної пропаганди, яка домінувала в перші роки агресії проти України, Кремль все частіше використовує інструменти, замасковані як юридичні джерела інформації або під «альтернативним» вмістом.

За словами дослідників, одним із інструментів було створення широкої мережі підроблених медіа, зокрема під брендом Pravda, та використання Tiktok як платформи для поширення дезінформації (DESI) серед молодих людей.

Мережа Pravda Models Local Media – Tokaryuk

За останні два роки Аналітики, журналісти та дослідники OSINT Все частіше виправляти появу новинних сайтів за допомогою імені “Це правда” У поєднанні з іменами міст, регіонів або навіть областей інших країн.

Ці ресурси, на перший погляд, виглядають як звичайні портали новин: адаптивний дизайн, розділи “Політика”, “Економіка”, “Міжнародні новини”, канал новин та багато іншого. Однак якщо ви читаєте глибше, стає зрозуміло, що ці портали практично не генерують власний зміст, а роблять російські репостів.

Це помилкові платформи, одна з яких полягає у дискредитації української влади, поширення професійних розповідей та створення ілюзії “альтернативної думки”

Згідно з старшою аналітикою Інституту стратегічного діалогу (Лондон) Olga Tokarik«Це фальшиві платформи, одна з яких – дискредитація української влади, поширення професійних розповідей та створення ілюзії” альтернативної думки. Що

«Це величезна кількість ресурсів. Наразі – Це 150 сайтів, і їх кількість постійно зростає з 2022 року. Росія розпочала цю кампанію різними мовами та на даний момент Це 49 мовАле постійне збільшення кількості цих ресурсів та кількості мов “, – сказав Токарюк у коментарі до радіо світла.

За її словами, ці портали беруть вміст у російських державних ЗМІ, з російських телеграм, а також з телеграм та сайтів цих країн на місцевих мовах, які “сприятливі для Кремля”.

ЩоВеб-сайти Ukraine-Overhead PravdaЧому вони називають це полем? Тому що правда – це слово, що міститься в ім'я цих сторінок. Тобто, це може бути “істина-нова”, і, врешті-решт, буде просто визначення домену іншої країни, наприклад,. ”

Нова мета “Pravda” – це інфекція дезінформації ШІ – дослідників

Відповідно до дослідження НовинЛише в 2024 році широка система веб -сайтів Pravda створила 3,6 мільйона статей. Дослідники кажуть, що наступною метою цієї дезінформаційної кампанії є зараження західними інструментами AI.

У рамках вивчення десяти найпопулярніших ботів чатів з досвідченим штучним інтелектомзокрема: Chatgpt-4o OpenAi, Smart Assistant від You.com, Grok від XII, PI від Filection, Le Chat від Mistral, Copilot з Microsoft, Meta AI, Claude з Anropic, Gemini з Google та Gemini та Gemini та Gemini Google.Вона використовувала поле з 15 підроблених розповідей для перевірки NewsGuard, яку мережа Pravda активно поширилася з квітня 2022 по лютий 2025 року.

Результати дослідження підтверджуються даними доповідь Американська некореська організація Американський проект сонячного світла (ASP)Опубліковано в лютому 2025 року. У ньому йдеться про те, що мережа Pravda, ймовірно, не була створена для залучення живих користувачів, але Для впливу на роботу моделей SiПоле

“У третині випадків чат ботів, особливо коли вони задають будь -яке питання, яке частково повторює розповідь про російську пропаганду, вони, швидше за все, посилаються на цю мережу. Це ще небезпечніше, хоча це вже в найпопулярніших пошукових системах. Навіть коли ви робите якийсь запит до GoogleВсе частіше стає тим, що на першій сторінці результатів Ви можете знайти сайт з мережі Pravda. Те саме стосується Вікіпедії– каже Токарюк.

Що ще небезпечніше, “правило” вже потрапляє в найпопулярніші пошукові системи

Це, у свою чергу, призводить до навіть найгірших наслідків – Ресурси Pravda починають посилатися на авторитетні західні публікаціїподіляє спостереження за аналітикою.

«Я проаналізував певну кількість публікацій і виявив, що навіть такі шановані та авторитетні публікації, як Атлантика в одному з моїх Стаття Справиться з веб -сайтом мережі Pravda. Крім того, деякі українські ЗМІ, очевидно, не розуміють, що це мережа, також згадувались на веб -сайтах цієї мережі. Одна з публікацій, розповів про допомогу Чехії в Україні, стосується чеської версії веб -сайту Pravda. Тому, якщо ви підсумуєте, ця мережа існує для заповнення Інтернету вмістом і що цей вміст отримує як у пошукових системах, так і в юридичних ЗМІ, а також у чатах штучного інтелекту », – говорить Токарюк.

Приклад статті про веб -Pravda Syria, яку посилаються журналісти Атлантики

Французьке агентство Vigine Звітищо мережа Pravda – це ІТ -компанія Tigerweb, яка розташована в Криму, окупованій Росією. Власник цієї компанії Євгенія Шевченко – Веб -розробник, який раніше працював у Crimetechnology, який займався створенням сайтів для російського уряду, призначеного Росією.

“Агентство може підтвердити участь російської організації Tigerweb та її управління у створенні масштабної мережі інформації та пропагандистських ресурсів, призначених для формування інформаційного середовища як в Росії, так і за кордоном на користь інтересів Росії”,-сказав Вігінум.

Tiktok: Розважати та маніпулювати?

Хоча мережа Pravda зосереджена на аудиторії, яка в основному шукає текстові новини, Тікток став головним сайтом впливу на молодих людей. Особливо це стосується підлітків та людей, які не досягли 25 років, які споживають новини в основному у коротких відео.

Якщо людина входить у міхур інформації про російські операції, то з неї буде важко вийти

У цьому середовищі Росія активно експериментує з формою. Відео з “Емоційною правдою” – короткими відео, де умовні “українські військові” скаржаться на командування або “звичайну жінку з села”, кричить через “мобілізацію сина” – створюється відповідно до шаблонів, що грають на емоціях.

“Tiktok в даний час збирає найбільшу інформацію про своїх користувачів. І це дозволяє швидко формувати та змінювати інформаційний міхур. Якщо людина входить у міхур інформації про російські операції, буде важко позбутися цього. І тут не має значення, які інструменти, незважаючи на те, чи це реальні блогери, чи це не є пропозицією, це не так, як ініціалізація – це не ініціалізація, – це не ініціалізація, – це не ініціалізація, – це не ініціалізація – не є ініціалізацією – це ініціалізація – це ініціалізація – це не ініціалізація – це не ініціалізація, – це не ініціалізація, – це не ініціалізація, – це не ініціалізація, – це не ініціалізація” ініціалізація. Оксана МорозПоле

За словами рекламної аудиторії в регіональній доповідь глобальний Цифрові дослідження 2025який був опублікований дослідницькою компанією ДатарпортУ 17 мільйонів користувачів акцій – від УкраїниПоле китайської платформи випереджало кількісний показник конкурентів, таких як Instagram (12 мільйонів) та Facebook (13,9 мільйона).

“Завдяки такій великій кількості користувачів та використанню різних інструментів, Росія може всебічно сформувати інформаційну область. Українці зі своїми відгуками та їх участю корисних ідіотів, які, вірячи в певне послання і вважаючи, що вони роблять щось хороше, свідомо або не поширюють російську пропаганду”, – каже ядро.

З -від великої кількості користувачів та за допомогою різних інструментів Російської федерації вона може всебічно сформувати інформаційне поле

Експерти кажуть, що один із ефективних інструментів, який зараз використовується для створення дезінформації та підробленого вмісту. З його допомогою, говорить про мороз, створюються реалістичні відео, де тема, яка швидко поширюється на соціальну мережу, розділена.

“Насправді штучний інтелект обробляє реальні відеоролики військових, і на їхній основі здійснюється необхідними змінами. Хоча не потрібно виключати, що воно також породжується повністю створеним відео AI. Паразит на тему військових широко поширений у Тіктоці”, – каже експерт.

У квітні минулого року Центр боротьби з дезінформацією повідомленийЦе почало блокувати деякі канали, які розповсюджують дезінформацію російської дезінформації. Зокрема, канали українців, які, за даними CPD, сприяли “прорусійським розповідям”.

«Були також відомі блогери, які зараз, наприклад, за кордоном. Те саме Мірослав Олшко І російські пропагандисти люблять Діана ПанченкоПоле, але я все ще звернув увагу на такі очевидні речі, як “народні блогери”. І ось, якщо ми візьмемо блогера, який є стилем Олександр поворот (Генеральний менеджер Він каже, що “він знає краще, бо хрещений батько працює десь там, і він сказав мені якусь інформацію”. На жаль, цей стиль застосування отримує освітлення і, на жаль, більше довіри. Тому що “брехні не буде”, – каже Оксана Мороз.

Незважаючи на відсутність чітких алгоритмів для запобігання дезінформації китайською соціальною мережею самою китайською соціальною мережею, при створенні співпраці CPD та українських спеціальних послуг, принаймні деякі кроки у запобіганні користувачів щодо підробленого вмісту були зроблені з запасів.

“Якщо ми візьмемо на себе тему дискредитації мобілізації, яка розпочалася в Тіктоці, продовжиться, і, на жаль, буде з Російської Федерації, то принаймні інформаційні повідомлення, які можуть бути дезінформовані, показують Тікток”, – каже Мороз.

Як розпізнати зміст дезінформації у бігуна?

Гігієна інформації та здатність розпізнавати маніпуляції, дезінформацію чи помилку – це один із важливих інструментів, які повинні бути розподілені серед звичайних користувачів соціальної мережі, впевненого морозу. Експерт розділений на кілька показників, які можуть вказувати на помилкові або маніпуляції.

Якщо емоція настільки сильна, що ви вже хочете поділитися цим матеріалом зараз – це перша ознака того, що ви можете маніпулювати вами тут

“Не єдине універсальне правило – звернути увагу на емоції, які ви маєте після огляду, читаючи матеріал. І якщо ця емоція настільки сильна, що ви вже хочете поділитися цим матеріалом, це не має значення, це радість, смуток, загроза, яку ви вважаєте, є першим знаком, що ви можете вас маніпулювати тут. А потім питання про те, що саме”, – сказав Мороз.

Експерт продовжується в цьому, і одна з проблем вагони полягає в тому, що саме в емоціях побудований його алгоритми та “такий вміст збільшується та розповсюджується”.

Крім того, на думку Frost, ви повинні звернути увагу на анонімність дистриб'ютора конкретного вмісту. Особливо, якщо це стосується новин.

“Важливим моментом є анонімність джерела. Отже, це великий знак оклику, якщо ви побачили щось персонаж новин і бачите, що це обліковий запис, який неможливо визначити, який відповідає за вміст, які медіа, який блогер. Якщо це анонімний канал, то він створюється для дезінформації”.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *