Як штучний інтелект впливає на права людини. 

Камерон Ашфар ― правозахисник, співзасновник Access Now і доцент Центральноєвропейського університету в Будапешті, вивчає права людини і вплив технологій на них. На останній зустрічі StayAtHome Media Stories від LMF він розповів про те, як штучний інтелект впливає на права людини, про простір боротьби з маніпуляціями та важливість різноманітності в створенні алгоритмів

Повільний підігрів 

Зараз ми в усьому світі спостерігаємо порушення свободи слова у різних формах. Іноді це навіть роблять через впровадження законів, щоб нібито уберегти громадське здоров’я. Під час пандемії і карантину люди почали багато говорити про демократію, і я розумію, чому ― адже уряди різних країн розширюють власні межі впливу. Наприклад, прем’єр-міністр Угорщини Віктор Орбан під час карантину отримав значно ширші повноваження і можливість керувати країною прямими указами. 

Якщо кинути жабу в окріп, вона відразу ж спробує вистрибнути. Проте якщо посадити її у воду кімнатної температури, а потім повільні підігрівати, то вона не помітить цього і звариться. Те, що роблять зараз уряди ― це повільне підвищення температури. Це значно гірше, адже невеликі кроки складніше помітити. І якщо дозволити один раз трохи порушити наші права, то наступного разу це так уже не шокуватиме. Під час пандемії уряди в усьому світі повільно, але все ж нарощують вплив на свободу слова. 

Кожна окрема країна має власне розуміння того, чим є свобода слова. Я не думаю, що ми маємо одне для всіх рішення, що робити з фейковими новинами ― штучний інтелект або апеляція до фактів не допоможуть. Факти прагнуть використовувати в боротьбі з почуттями. Люди налякані, розгублені ― у такому стані не допоможе чергова порція фактів. Апеляція до фактів працює лише до певного рівня, а конспірологічні теорії звертаються до почуттів. Єдине, що можна зробити для вдосконалення комунікації ― менше говорити про факти і більше про відчуття та емоції. Таких прикладів обмаль. Тож урядам і медіа варто шукати комунікаційні стратегії. 

Що таке штучний інтелект

Штучний інтелект (ШІ) аналізує вихідні дані і дає певний результат ― це якщо говорити дуже спрощено. Єдиного визначення для ШІ досі немає, але він уже керує 250 мільярдами доларів у сфері інвестицій. За шість років обіг ШІ у сфері охорони здоров’я виріс з 600 мільйонів до 6 мільярдів доларів. FBI використовує Clearview ШІ для ідентифікації незнайомця з вулиці лише за одним фото. ШІ формує наші плейлисти, стрічки новин і онлайн-покупки. 

Є два базових види ШІ ― narrow і general. Narrow ШІ робить за людину конкретний вибір. Наприклад, обирає треки для плейлиста на основі попередніх вподобань. Він уже існує у нашому щоденному житті. Натомість general ще не з’явився. Це той тип штучного інтелекту, який ми бачимо в кіно ― наприклад, система Скайнет у «Термінаторі». Це той ШІ, який повністю видає себе за людину ― прогнозують, що до його створення залишилося близько 70 років. 

Narrow ШІ створюють на основі навчання. Машинне навчання ― найпростіший варіант, за якого алгоритмові достатньо зрозуміти, що подобається користувачеві чи користувачці, щоб пропонувати схожі продукти. Наприклад, музику. Deep learning намагається працювати, як мозок ― враховує власні результати і самомодифікується, проте все ж потребує втручання людини. А reinforcement дозволяє створювати власні дані і вчитися на власних помилках чи успіхах. Для контролю ШІ за такою схемою рідко потрібна людина. Найвідоміший приклад ― Google AlphaGo, що сама навчилася грати у го краще, ніж будь-який професіонал. 

У будь-якому разі ШІ створює людина. У narrow ШІ ключовим є алгоритм, що відображає людські упередження. Це помітно по різниці в роботі ШІ у різних частинах світу. Тож він не може бути нейтральним ― адже використовує людський досвід.  

Без права, але з контентом 

Вплив ШІ ― і негативний, і позитивний ― уже значний, але надалі тільки зростатиме. Часто він невидимий ― наприклад, вдалі пошукові результати, список друзів у соціальних мережах, управління фінансами чи HR. Для тих, хто шукає видимі ефекти наукової революції це видається надто нудним. Це не те, чого ми чекаємо після перегляду фільмів про страхітливе майбутнє. Та з чим точно не буде нудно ― то це з правами людини. 

Більшість досліджень негативного впливу ШІ сфокусовані на приватності. Але як щодо інших прав? Наприклад, свободи мирних зібрань, що передбачає можливість формувати групи і виражати власну думку. Ці зібрання ― не просто група людей на вулиці чи підпільні групи. Україна в цьому сенсі має дивовижний досвід Євромайдану. 

Тепер для реалізації права на зібрання треба мати вільний доступ до інтернету, можливість організувати подію у фейсбуку, створити чи підписати онлайн-петицію, провести фандрайзинг і вільне обговорення. Проте ШІ може модерувати контент і обирати, що ми бачимо у стрічці. 

Демонстрація контенту залежить від того, з чим ми взаємодіяли раніше. Наприклад, чи обирали ми запропоновані результати пошукових запитів, чи коментували дописи у стрічці. Тобто ми бачимо не завжди те, що нам потрібно, а те, що, як вважає ШІ, мусить нам сподобатися. Тож якщо ви ніколи не брали участі у протестних рухах чи були аполітичними, дуже невисока ймовірність того, що ви побачите у фейсбук-стрічці допис про мітинг, а не про котиків.  

Натомість модерація контенту працює інакше ― у цьому випадку ШІ визначає, що саме буде в мережі, а не чи зможете ви бачити існуючий контент. На фейсбуку та у ютубі є безліч відео та текстів, але люди просто не можуть відстежувати таку кількість контенту. Тому компанії використовують ШІ. Є три види такої модерації: повна, часткова або ж така, коли ШІ не може впоратися і направляє контент на перевірку людині. 

Такі алгоритми також тренуються на вихідних даних, що завантажує людина ― тож не позбавлені упереджень. Наприклад, у США вірогідність того, що контент афро- чи латиноамериканців не пропустять, вища у 1,5 рази, ніж коли ми говоримо про контент «білих» американців. Так само і з іншими мовами, крім англійської. Тож коли хтось організовує протест чи збирає кошти, не використовуючи англійську, вірогідність того, що контент не пропустять на публікацію, зростає. 

Також проблема в тому, що ШІ навмисно опускає надто вірусні відео у фейсбуку.  Якщо це відео з протестів, то таким чином алгоритм обмежує протестний і соціальний рух. 

Та навіть коли коли ШІ передає контент на модерацію людині, немає гарантії, що його заблокують з вагомих причин. Модератор чи модеракторка можуть не знати контексту події, про яку йдеться, можуть не мати експертизи з окремих тем, а алгоритм навчиться на цьому. Був період, коли ШІ у фейсбуку почав блокувати слово «єврей» через те, що його часто використовували неонацисти. Таким чином система блокувала групи єврейських громад. 

Поняття етики розмите, це тільки частина того, чим повинен керуватися алгоритм. Щось може бути етичним, але порушувати права людини. Наприклад, у деяких країнах неетично виступати проти релігійних діячів чи влади ― але заборона на ці протести порушує права людини. Тож до розробки ШІ треба залучати і юристів. 

Наразі власний ШІ створюють п’ять компаній ― наприклад, Google чи Apple. Проблема в тому, що тільки 2% інженерів Google ― темношкірі. Це означає, що погляд на деякі питання обмежений. Коли я наводжу приклади на лекціях, кожен і кожна мають власну думку на те, як треба вирішувати проблему. Так само і у великих компаніях. Різноманітність серед людей, що створюють ШІ, допоможе вдосконалити пошук рішення. Треба проводити експертні панельні дискусії, залучати різних розробників, більш прискіпливо тренувати ШІ. Важливо враховувати, хто, для чого і як збирає дані для створення алгоритму. Інакше важливі питання залишаються сліпою плямою.  

Прийняття і заперечення 

Наше покоління ще пам’ятає світ до глобальних змін клімату. Нам хочеться повернути той стан. Але наступне покоління вже житиме тільки у світі зміни клімату, минуле здаватиметься їм фантазією, утопією. І я не впевнений, чи вони захочуть її повернути. Так само і з ШІ. Якщо ми вже зараз не почнемо говорити про права людини і етику використання ШІ, наступні покоління матимуть менше свободи ― і навіть не знатимуть про це. А ніхто не буде працювати над чимось, не маючи конкретної ідеї. 

На ШІ треба дивитися через призму прав людини. Так, вони ніколи не можуть бути досконало захищеними. Але ми можемо бути більш свідомими й обізнаними, а розробники повинні перевіряти алгоритм ретельніше. 

Тепер кожен і кожна можуть висловити власну думку у фейсбуку. І наше справжнє завдання ― зробити так, щоб ці думки не лякали нас і не тиснули своїм надлишком. Ми вже зараз не маємо часу на те, щоб відповісти з позиції людини, що поважає інших. У нас немає простору для обдумування даних, ми перевантажені і відповідаємо, як роботи. Тому й почуваємося так, ніби нас постійно контролюють. 

Насправді, нами дійсно постійно маніпулюють ― оточення, друзі, батьки, уряд, продавці. Це не нове явище. Питання тільки в тому, що ми з цим робимо і як відповідаємо. Це і є нашою свободою. Наше завдання ― створити простір у соцмережах чи медіа, де ми можемо боротися з маніпуляціями. Маніпулювати нами дійсно вдається, коли ми бездіяльні ― або ж, навпаки, заперечуємо маніпуляцію. Тому важливо знати про власні сліпі плями. І коли ми будемо їх зауважувати, то матимемо більше простору для боротьби. 

 

Вебінар, по матеріалах якого написаний текст, підготовлений за підтримки Європейського Союзу. Його зміст є виключною відповідальністю організаторів і не обов’язково відображає погляди Європейського Союзу.

 

Текст із попередньої зустрічі з Якуб Ґурніцкі тут.

 

Головне зображення Nathaniel Shuman

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.