Як Facebook перетворюється на систему тотального контролю

Дослідниця медій Світлана Матвієнко, яка спеціалізується на темі інформаційної війни, на відкритій лекції у Львові розповіла, наскільки варто довіряти соцмережам як джерелам інформації, як Facebook маніпулює людськими емоціями і про використання соціальних медіа під час Майдану

У наш час свобода дедалі частіше асоціюється з вільним доступом до технологій і комунікацій, і чимало людей вірять, що за допомогою технологій можна вирішити все. Наприклад, соціальна мережа може замінити складні соціальні та політичні процеси. Таких людей називають технологічними оптимістами. Є й песимісти, які вважають технології серйозною проблемою чи небезпекою.

Інтернет – це складна мережа мереж. Говорячи про її історію, слід розуміти, що інформація подорожує тими ж шляхами, якими їздили залізничні вагони ХІХ століття. Шляхи, якими передається інформація, буквально вросли в ґрунт. Вони лежать на території певних держав, тому кіберпростір стає заземленим. Це особливо важливо сьогодні, коли ми переживаємо стадію фетишизації кіберпростору та спостерігаємо, як держава поступово проникає у кіберпростір.

Мене цікавлять аномалії, коли проблеми в комунікації виникають через алгоритми – не через те, що вони перестають функціонувати, а через те, що мають непередбачувані наслідки. Алгоритм News Feed є не просто специфічною формулою, а й утіленням певної ідеології.

Ми не знаємо, як саме вираховувати інтерес користувача до певної новини. Знаємо, що існує певна формула, яка враховує ставлення користувача до того, хто створює допис, до тих, хто його читає, тип і час допису, а також час, коли його переглядають, і тривалість перегляду. Facebook використовує спеціальні технології для спостереження за своїми користувачами, що повертає нас до дискусії про етику в мережі.

Алгоритм Facebook постійно змінюється; часом це потрапляє в новини, часом ні. Два з половиною роки тому зчинився великий скандал через секретний експеримент, проведений над користувачами Facebook без їхньої згоди. Експеримент проводили двоє аналітиків і співробітник Facebook, який надав дослідникам доступ до внутрішньої інформації. Він полягав у спеціальному сортуванні новинної стрічки: одним користувачам показували лише позитивні новини й пости, іншим – лише песимістичні й депресивні.

Яким чином добирали користувачів – невідомо, але загалом експеримент охопив сімсот тисяч людей і довів, що люди, які читали тільки позитивні новини, писали менше негативних повідомлень. Отже, відбулося маніпулювання свідомістю більш ніж півмільйона людей. Емоції вражених користувачів впливають на емоції інших, і це доводить можливість «вірусного» поширення емоційних станів у соціальній мережі.

 

Замість території свободи всесвітня соціальна мережа стає механізмом тотального контролю

 

Зміни алгоритму News Feed – це теж експерименти: ми ніколи не знаємо, що саме там робиться, які новини нам показують, коли контент добирає робот, а коли – аналітики. Ми знаємо, що з 2009 року алгоритмом керує штучний інтелект, себто система, здатна навчатись. Це семантична мережа у дії: машина сама розуміє значення, людина не мусить їй нічого пояснювати.

Винахідник WorldWideWeb Тім Бернерс-Лі у 1999 році запропонував ідею, для якої тоді не було технічних можливостей: щоб в один прекрасний день мережа стала штучним інтелектом, який зможе спілкуватись на рівних із користувачем. І наше щоденне життя керуватиметься машинами, які говорять до інших машин. Зараз ми всі маємо програми, які координують щось у нашому житті, допомагають нам. Це було б добре, якби на цьому не робили гроші і якби нас повідомляли, хто нами маніпулює. Якби компанії запитували нас, чи хочемо ми, аби наші додатки виконували певні функції, й попереджали, скільки це коштуватиме. Щоб повідомляли, кому й навіщо продають наші дані. Але нам цього ніхто не говорить.

Алгоритму News Feed допомагає працювати  Social graph. Хтось думає, що це поняття рівнозначне мережі наших друзів, але все складніше: це не лише користувач, а й те, що він робить у мережі, кожен його клік і лайк, це те, чи він просто дивиться, чи переходить із новини на новину. Уся ця інформація фіксується, навіть якщо ви просто зайшли у Facebook і п’ять хвилин нічого не робили. Це потрібно, щоб прорахувати, хто ви, як працює ваша психологія. Ці показники складають мережу і є її основою – для машини вони стають базою стосунків, що враховуються алгоритмом News Feed. Замість території свободи всесвітня соціальна мережа стає механізмом тотального контролю.

Теоретик медіа Елі Паризер кілька років тому написав книгу «Бульбашка фільтрів» (The Filter Bubble). Він говорить про спотворення інформації, що виникає через те, що ми читаємо сфабриковану, штучно створену стрічку, і про перенасичення інформацією. Алгоритми спрацьовують таким чином, що спрощені, емоційно заряджені, часом образливі повідомлення проходять мережею з легкістю й захоплюють так багато людей, що блокують інші, складніші та важливіші повідомлення.

Якби стрічка формувалася за ознакою потенційної кількості кліків, то новина про Джастіна  Бібера завжди була би популярнішою за новини про Афганістан

 

Ця проблема існує і в традиційних медіа, і вони намагаються вирішити її за допомогою балансу —  висвітлювати не лише новини з життя Джастіна Бібера, а й події в Афганістані. Проте, якби стрічка формувалася за ознакою потенційної кількості кліків, новина про Бібера завжди була би популярнішою за новини про Афганістан. Багато людей засмучені цим і вважають неякісне формування стрічки новин проблемою.

Не лише соціальні мережі, а й онлайн-видання переходять до персоналізації новин. Щоб вижити, їм потрібно більше користувачів, і вони пропонують людям те, що ті хочуть бачити. Маркетингові стратегії потужно впливають на людський світогляд і доступ до інформації. Ми знаємо, що соціальні мережі відіграли значну роль у подіях Майдану, але й тут не обійшлося без комерційної складової. Я прочитала, що легендарний пост Мустафи Найєма був прорекламований за кількасот доларів, і зацікавилась: чи робив хтось так само? З’ясувалося, що практика промоції важливої інформації за гроші під час Майдану була поширена. Адміністратор спільноти «Євромайдан» Володимир Компанієць говорив, що витратив на це понад тисячу доларів.

Це значить, що жодної горизонтальності там не було – щоб обійти алгоритм, платили гроші. Ми використовували Facebook, щоб дати всім інформації, а комерційний алгоритм працював на те, щоб не дати цій інформації бути достатньо видимою в контексті інших глобальних подій. Facebook змушує нас платити, щоб протистояти цьому алгоритму.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.