Як алгоритми створюють ілюзію популярності, а медіа можуть розірвати це зачароване коло. 

Чому ЗМІ складно розгадати алгоритми соцмереж, але чому це вдається пропагандистам? Як працює відмивання інформації в інтернеті? Чим небезпечна ілюзія популярності? Чому платформам соцмереж стає все складніше ідентифікувати ботів? Чому фактчекінг недостатньо ефективний і як це змінити? Чи може програмне забезпечення бути етичним? І чому сьогодні найбільш небезпечними для поширення дезінформації стають закриті групи в WhatsApp або Telegram?

Відповіді на ці питання — в матеріалі, заснованому на розмові з Семюелем Вуллі, професором Техаського університету в Остіні, програмним директором  відділу Досліджень пропаганди Центру залучення аудиторії та фахівцем з обчислювальної пропаганди.

Остання книга Вуллі «Гра в реальність: як наступна хвиля технологій зламає правду» вивчає найновіші технології маніпуляцій, зокрема й методику deep fake, коли за допомогою штучного інтелекту можна згенерувати зображення й голос людини, а також застосування в пропаганді віртуальної реальності.

* * *

Власники компаній технологічних гігантів тривалий час наполягали на тому, що соцмережі об’єктивні, адже алгоритм це результат математичних обрахувань. Семюель Вуллі заперечує це.

Науковці доволі швидко з’ясували, що рішення про параметри алгоритмів ухвалюють люди, відтак ті відтворюють цінності та упередження розробників.  Оскільки алгоритми диктують, яку саме інформацію користувачі можуть побачити онлайн, вони, наприклад, можуть віддавати перевагу чи то расистській, чи політично упередженій інформації.  

Власне суб’єктивність алгоритмів є ключовим фактором обчислювальної пропаганди (computational propaganda). Цей термін професор Вуллі використовує для позначення автоматизованих методів дезінформації. 

Наноінфлюенсери та відмивання інформації

Існує чимало способів маніпулювати алгоритмами та пріоритезувати певну інформацію чи новини, аби ті видавалися популярними, хоча насправді такими не є.

Цю стратегію називають «фабрикуванням консенсусу». Це створення ілюзорної популярності конкретної історії, ідеї чи особи.

Багатьом зрозуміло, як працюють так звані наноінфлюенсери — власники акаунтів, які мають близько п’яти тисяч підписників. Їм платять гроші або надають ексклюзивний доступ, скажімо, до виборчої кампанії чи політичного кандидата, а вони скоординовано поширюють конкретні повідомлення. 

Семюель Вуллі пояснює: «Найголовніше, що ці люди добре знають свою аудиторію. Тому їхнє повідомлення тарґетується на дуже конкретну групу.

Звісно, наноінфлюенсери не розголошують, що їм платять. Але це все одно маніпулювання громадською думкою, адже щось називають популярним лише тому, що за це було заплачено».

У цьому випадку йдеться про реальних користувачів, які поводяться неетично. 

А ось боти — це інша історія. Сам принцип соцмереж передбачає, що одна людина має один голос.

Боти як інструмент дозволяють одній людині координувати десятки тисяч  облікових записів і фактично перетворюють голос однієї людини на голос десяти тисяч.

Професор Вуллі зустрічав випадки, коли одна людина утримувала п’ятдесят тисяч  фальшивих акаунтів. 

Дослідник зауважує, що існує популярна думка, нібито ботів створюють насамперед для того, щоб ті комунікували з людьми й впливали на них, переконували змінити політичні погляди, змушували в щось повірити. Ця думка хибна.

Боти створені переважно для того, щоб безпосередньо комунікувати з алгоритмом, зманіпулювати ним і переконати алгоритм у тому, що якась річ популярніша, ніж є насправді.

«Раптом у вас з’являється п’ятдесят тисяч ботів, які пишуть у Twitter, вживаючи певний хештег або поширюють певну історію. Так створюється враження, що ця історія куди популярніша.

У багатьох випадках по всьому світу ми помічали, як соцмережі позиціюють такий контент як трендовий, органічний та справді популярний. Хоча він таким не був. Це фактично система відмивання інформації», — пояснює Семюель Вуллі. 

Певна інформація проходить через різні кола та процеси. Створюється враження, що вона популярна серед звичайних людей у США, Великобританії чи Україні. Відтак це змушує інших людей думати, що ця інформація є популярною у певних місцях. 

Мета таких маніпуляцій — створити ефект приєднання до більшості, аби сказати: «О, так чинять мої друзі», «це популярно, тож, мабуть, і я повинен це зробити».  З точку зору психології це доволі ефективна стратегія.   

Під час своїх досліджень Вуллі спілкувався з понад сотнею людей, які створюють подібні інструменти по всьому світу. Вони безупинно тестують і винаходять нові стратегії для просування свого контенту.

Часом їм йдеться про доволі прості речі — наприклад, виявити автоматизацію алгоритмів. Рішення цих завдань досягаються шляхом постійних експериментів.

До прикладу, Twitter або Facebook вводить правило, яке не дає змоги публікувати пости частіше, аніж раз на хвилину. Виявивши це завдяки ботам, такі компанії автоматизують процес і роблять публікації кожну хвилину і одну секунду.

Платформи соцмереж мають регіональну специфіку та різні стратегії щодо своїх алгоритмів. Вони часто їх змінюють. Ті, хто використовує ботів, щоб зрозуміти алгоритм, має перевагу над звичайними користувачами або ЗМІ.

Медіа також намагаються вгадати алгоритм, але не мають ресурсів, щоб автоматизувати процес і безупинно підбирати до нього ключі. 

Семюель Вуллі наполягає, що глибше використання ботів стає нормою. А завдяки розвитку штучного інтелекту комунікація ботів все більше нагадує людську, тож алгоритми соцмереж не можуть розпізнати та ідентифікувати маріонеткові акаунти.

Але ботів можна використовувати з користю. Наприклад, аби популяризувати ті чи інші корисні повідомлення.

Утім, зауважує Вуллі, цей спосіб неприйнятний для журналістів, котрі в такому випадку самі діятимуть методами комп’ютерної пропаганди. Виходом може бути відмова від повністю автоматизованих алгоритмів, які можна визначити механічно. 

«Офіс ненависті» у WhatsApp

Один з дослідницьких пріоритетів професора Вуллі — вивчення шляхів поширення дезінформації та пропаганди в закритих групах WhatsApp, Viber, Line, Signal і Telegram. Нерідко кампанії з дезінформації, помітні у Facebook чи Twitter, зароджуються саме там. 

Науковець звертає увагу на Індію, Бразилію та Філіппіни:

«У авторитарних країнах громадяни користуються такими джерелами комунікації, щоб почуватися безпечно.

Водночас в багатьох країнах представники влади поширюють там скоординовані дезінформаційні та маніпулятивні повідомлення. Недемократичні політики не цураються таких методів.

В Бразилії за президента Жаїра Болсонару це стало великою проблемою. Існує неформальний зв’язок між владою і цими ботофермами, який бразильці називають «офісом ненависті». Так створюються кампанії, до яких залучені і люди, і боти. Усі вони цькують політичних суперників президента». 

На відміну від досліджень Facebook, Twitter та YouTube, у науковців поки немає спеціальних інструментів, які б дали можливість зібрати дані з месенджерів. Тому їм доводиться  спілкуватися з людьми, які працюють на такі кампанії. 

Загалом такі кампанії працюють у двох напрямках. Це, як вже згадувалося, популяризація певних ідей. Але водночас і придушення протилежних думок.

Сьогодні більше не йдеться про цензуру, а про засмічення інформаційного простору, коли повідомлення губляться посеред інформаційного сміття.

Так працює «50-центова армія» в Китаї, яка складається з реальних людей. (Назва походить від інформації про те, що за один пост цим людям платили по 50 центів). Вони поширюють тонни спаму,  щоб користувачі таки не дісталися до певного гештегу або не долучалися до тієї чи іншої розмови. І, зрештою, ставали апатичними.

Ще один напрямок атак — злагоджене цькування журналістів.

За словами Семюеля Вуллі, саме медіа відіграють вирішальну роль у боротьбі з цими маніпуляціями. У 2016-му, коли обчислювальна пропаганда прийшла в США, більшість журналістів просто не писали по це, бо не розуміли, що саме відбувається. Нині рівень обізнаності геть інший.

«Якщо ми подивимося на Україну чи Мексику, то можемо багато чому навчитися», — додає професор. 

Вихід є: емпатія замість пасивного фактчекінгу та етичне програмне забезпечення

Вивчаючи цю тему понад десять років, Вуллі зазначає, що пасивний фактчекінг корисний в короткочасній перспективі й впливає лише на обмежене коло людей. Довгострокова стратегія має шукати інші способи залучення та об’єднання читачів.

Щодо фактчекінгу у США. Facebook співпрацює з найбільшою американською агенцією Associated Press. Серед інших відомих ініціатив — Snopes.  Згідно з дослідженнями, одна з найбільших проблем фактчекінгу полягає в тому, що аудиторія, котра поширює теорії змов і на яку спрямована дезінформація, навряд чи повірить фактчекінговим організаціям і запереченням своїх повідомлень. Такі люди можуть думати, що ці організації контролює уряд.  

Тому підхід до фактчекінгу та медіаграмотності потребує змін. Найголовніше для нас бути емпатичними.

Найголовніше для ЗМІ будувати місточки між людьми та створювати простір для вільної дискусії, в якому люди з різними політичними переконаннями могли б щиро комунікувати. 

Компанії соцмереж мають розробляти алгоритми, пріоритезуючи інші речі. Сьогодні соціальні мережі програмуються так, щоб користувачі якомога довше перебували на платформах. Завдяки цьому компанії заробляють з реклами.   

Семюель Вуллі наполягає, що інструменти соцмереж мають розроблятися, дбаючи про права людини та демократію, оскільки це цілком можливо.

Скажімо, донедавна алгоритми геть не зважали на суть повідомлень: вони не розрізняли новини і фейки. Але політичні скандали у США змусили власників соцмереж задуматися. 

Щоб програмувати соцмережі заради «добробуту користувача», варто пріоритезувати перевірену інформацію, здоровий спосіб залучення користувачів, рівність у доступі незалежно від фінансового статусу, приватність та захист даних.

Разом з іншою американською дослідницею і програмувальницею ігор Джейн Макгонігал Семюель Вуллі розробив принципи етичного програмного забезпечення — The Ethical OS.

За допомогою цього підходу IT-спеціалісти на ранній стадії розробки можуть перевірити, наскільки їхніми винаходами можуть скористатися з лихою метою.  

Автори визначили вісім зон ризику, до яких може потрапити алгоритм. Скажімо, бути використаним для поширення дезінформації і пропаганди, викликати залежність, використовуватися заради cтеження за людьми або ж розпалювати ненависть.

Також інструментарій дає змогу пройти 14 потенційних сценаріїв того, як хорошими технологіями можна зманіпулювати. 

Американський аналітичний центр RAND, що працює на замовлення уряду та збройних сил США, скажімо, розмістив на своєму сайті перелік перевірених вебінструментів для боротьби з дезінформацією.

Йдеться насамперед про застосунки, які можуть ідентифікувати ботів та сертифікувати перевірений контент, а також дають інструменти, що можуть перевіряти правдивість відео і детальніше аналізувати метадані

Утім, професор Вуллі звертає увагу на те, що багато з цих інструментів існують лише англійською мовою і розроблені лише для однієї з платформ. Наприклад, створені лише для Twitter, тоді як в інших регіонах можуть бути популярні геть інші соцмережі, хоча проблема глобальна.

Компанії соцмереж давно стали міжнародними, але коли йдеться про рішення, увага приділяється насамперед Північній Америці та Великій Британії.

Існує дуже мало команд, які працюють з іншими мовами крім англійської та розуміють інші середовища. До того ж світова критика зосередилася та Facebook.

Тоді як Google, YouTube та багато інших компаній несуть не меншу відповідальність за те, як вони, наприклад, пріоритезують відповіді на пошукові запити. 

Окремий напрямок — увага до вразливих груп, проти яких ведуться кампанії з цькування і які часто не помічаються за межами цих громад.

Сьогодні замало, щоб ЗМІ розповідали про проблеми, з якими стикаються меншини чи маргіналізовані спільноти. Треба також розуміти, що їм найбільше потрібно та яку інформацію вони найбільше прагнуть отримати.

За останні роки ЗМІ в Україні та світі системно звертали увагу на небезпеку дезінформації. Тепер настав час експериментувати й пробувати практичні рішення.

А оскільки обчислювальна пропаганда тримається на технологіях, медіа так само доведеться розібратися в програмуванні. 

Щоб зрозуміти, як все працює, Семюель Вуллі радить ще одну книгу Саші Костанци-Чок з Массачусетського Технологічного Інституту під назвою «Дизайн справедливості».

Вона розповідає про те, як програмування може  допомогти  боротися з проблемами й замість «зруйнувати правду» (як йдеться в заголовку книги Вуллі) «зруйнувати несправедливість». 

«Медіа проти поляризації: історії успіху з того боку Атлантики» — спецпроєкт Лабораторії журналістики суспільного інтересу та Medialab.

Попередні матеріали:

Хто має зробити інтернет місцем цивілізованої дискусії? (вступ до спецпроєкту)
Зрозуміти, залучити й поєднати
Крізь новинні пуслеті до Чаттануґи

Матеріал(и) підготовлено за підтримки Фонду Маршалла Сполучених Штатів (German Marshall Fund) програмою випускників лідерських програм.

Оригінал статті — англійською мовою, переклад — Вікторія Удальцова
Зображення в матеріалі — Наталя Гуменюк

Головне зображення: Інеса Білюк

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.