Чи може штучний інтелект зробити журналістику кращою або гіршою? 

Журналістика нікуди не дінеться від технологічного прогресу, зокрема від комп’ютерних програм, які можуть робити частину нашої роботи. Дослідники медій прогнозують різні варіанти розвитку подій — від гармонійного співжиття до робоапокаліпсису. Але, хоч як би хотілося, перекласти на штучний інтелект відповідальність за власні професійні гріхи журналістам не вдасться. 

«Ця знахідка шокувала: група науковців знайшла стадо єдинорогів у далекій долині серед Андських Кордильєр. Найбільше вчених здивувало, що єдинороги розмовляли чудовою англійською. Вони вирішили назвати популяцію «овід» на честь їхніх особливих рогів. Ці чотирирогі біло-сріблясті єдинороги раніше не були відомими науці. Лише за два століття стало відомим, що призвело до появи цього дивного феномену. Доктор Хорхе Перес, біолог-еволюціоніст із університету Ла-Пас, і кілька його колег дослідили Андські Кордильєри в тому районі. Там не було інших тварин або людей. Перес помітив, що долина була природним фонтаном, який був оточений двома скелями та сріблястим снігом. Перес та кілька інших членів команди наважились піти далі долиною. “Коли ми досягли вершини однієї зі скель, побачили, що вона була блакитного кольору, а на поверхні плавали кристали”, — сказав Перес. Вчені були вражені, побачивши стадо єдинорогів. Вони були так близько, що можна було торкнутись їхніх рогів. Оглядаючи їх, дослідники помітили, що єдинороги розмовляли правильною англійською. “Вони мають спільну мову, щось на кшталт діалекту”, — каже Перес. На його думку, єдинороги можуть походити з Аргентини й бути нащадками загубленої раси людей, які мешкали у Південній Америці до того, як туди прийшли сучасні люди…»

Думаєте, це чудернацьке фентезі накуреного письменника? Ні, насправді цей текст згенерований штучним інтелектом завдяки моделі машинного навчання GPT-2. Лише перший абзац — це seed, себто посівний текст, написаний людиною. На його основі машина склала історію. Модель, яка мала створити цей текст, тренувалась на такій великій кількості різноманітних текстів, яку можна порівняти з обсягом англомовної Вікіпедії. Поки що це вершина можливостей штучного інтелекту у царині генерування мови, але й цього достатньо, аби медіа використовували його у своїй роботі. 

Штучний інтелект — це не те саме, що звичайні комп’ютерні програми, які медіа використовують для автоматизації рутинних редакційних процесів. Штучний інтелект симулює поведінку людини. Він, як і людина, може навчатись, робити логічні висновки, виправляти помилки, розуміти мовлення.

Штучний інтелект буває слабким, або ж вузьким, і сильним. Перший спроєктований для виконання одного конкретного завдання. Штучний інтелект, натренований грати в шахи, не можна використати для перекладу текстів. Apple Siri та інші голосові помічники є прикладами слабкого штучного інтелекту.

Сильний штучний інтелект — це система, яка повторює універсальні когнітивні здібності людини. Вона може знайти розв’язок нової складної задачі без людського втручання. Прикладом є роботиця Софі, яку теребив за щічку Гройсман. Поки що сильний штучний інтелект існує лише як модель. 

Найпростіший спосіб застосування комп’ютерної програми у редакції — створення новин за шаблоном. Наприклад, програма регулярно бере оновлену інформацію про кількість хворих на кір із офіційного джерела й формує стандартну новину. Але якщо ми хочемо, щоб програма не лише вставила цифру в текст, а й порівняла її з попередніми даними та сформулювала результат у тексті, нам потрібен штучний інтелект. 

Одним із перших серед медій штучний інтелект почало використовувати агентство Bloomberg. Торік їхня програма Cyborg, яка аналізує фінансові звіти й перетворює їх на новини, згенерувала тисячі текстів. Forbes використовує модель Bertie, яка допомагає  генерувати заголовки та пропонує найбільш трендові теми для новин. Моделі машинного навчання використовують Washington Post, Los Angeles Times та The New York Times. Експерти прогнозують, що за п’ятнадцять років 90% новин будуть генеруватись штучним інтелектом. 

Використання програм дозволяє журналістам відійти від рутини й зосередитись на якості продукту. «Найбільше від штучного інтелекту сьогодні виграє журналістика даних, — розповідає журналістка й аналітикиня «Текстів» Надія Романенко. — Ми робимо проект з пошуку маніпулятивни новин. Алгоритм пошуку фокусується на лайці, проявах емоцій, припущеннях або граматичних конструкціях, більш притаманних росіянам, ніж українцям, що також може вказувати на дезінформацію. Потім зі знайдених новин ми витягуємо теми й намагаємось зрозуміти, чим найчастіше маніпулюють». Висновок програми не остаточний — його оцінюють люди. «За тиждень штучний інтелект виділяє чотири тисячі новин. Нехай триста з них насправді не маніпулятивні, навіть за такої похибки важко уявити, що таку кількість інформації обробить людина», — пояснює Надія. 

VoxUkraine за допомогою штучного інтелекту довів, що кожен третій коментар в українському YouTube написаний з-під фейкового акаунта. Це дослідження представили у документальному фільмі «Я — бот». За словами Надії Романенко, завдяки штучному інтелекту навіть маленька редакція може дозволити собі робити великі журналістські дослідження — наприклад, про нелегальний видобуток бурштину

Яскравий приклад допомоги роботів журналістам — розслідування Buzzfeed  про шпигунські літаки. Розвідка приховує літаки, які використовує для своїх потреб, і реєструє на фіктивні компанії. Але алгоритм машинного навчання проаналізував схему польотів, що нагадувала схему пересування літаків Федерального бюро розслідувань і Департаменту національної безпеки США. 

Втім навіть текст, наведений на початку, поки що не тягне на Пулітцерівську премію, хоч і вважається вагомим досягненням у генеруванні мови. Штучний інтелект все ще має серйозні проблеми з креативністю

Водночас деякі його можливості можуть підштовхувати медіа до нечесних методів утримання аудиторії та призвести до втрати довіри. Наприклад, штучний інтелект може ідеально персоналізувати матеріали видання для конкретного читача, враховуючи його поведінку в мережі та інші дані, які про людей збирають цифрові сервіси. Видання пропонуватиме читачеві саме ті матеріали, які він очікує побачити, й висвітлення подій у ключі, співзвучному його поглядам. Що не так? На думку Надії Романенко з «Текстів», редакції матимуть спокусу задовольняти потреби людей із полярними поглядами, підтасовуючи факти. «Уявіть антиутопію, в якій сайт подаватиме одній частині аудиторію одну версію дійсності, а іншій — іншу», — каже Надія. 

Ще одна небезпека — діпфейки. Це нова технологія штучного інтелекту, за допомогою якої створюють або змінюють відеоконтент. Її назвали на честь користувача Reddit, який у 2017 році замінив обличчя порноакторів на обличчя відомих людей. Один з найвідоміших діпфейків відео президента США Барака Обами. 

The Wall Street Journal активно вчить своїх журналістів розвінчувати діпфейки. Зокрема, вони знаходять стару версію відеоматеріалів за допомогою пошуку зображень, наприклад, TinEye або Google Images. А також використовують програми редагування відео, щоб проаналізувати його покадрово. Тоді можна побачити неприродні рухи, світло, неоднорідність кольору шкіри — ознаки того, що відео сконструйоване. Втім, як зауважує NiemanLab, навчати потрібно не лише журналістів, а й аудиторію. 

Ще одна біда зі штучним інтелектом полягає в тому, що він створений людиною і переймає людські недоліки та упередження. Наприклад, вважає, що обличчя білих людей красивіші, бо так довго вважали у західних суспільствах. «Алгоритми — це автоматизовані припущення. Якщо ви не скоригуєте упередження, ви просто автоматизуєте його», — сказав письменник Та-Нехісі Коат на щорічній конференції з прав людей MLK Now. 

Людині для отримання досвіду достатньо кількох прикладів, натомість штучний інтелект потребує великих масивів інформації. Без масштабних даних можливості штучного інтелекту обмежені.

Також він добре почувається, працюючи зі структурованими даними: результатами спортивних змагань, табличкою з сумами абощо. Але більшість даних, якими володіє людство, не є структурованими. Для того, щоб працювати з аудіо- та відеозаписами або аналізувати текст, потрібні дедалі складніші моделі штучного інтелекту. Проте зараз зростає популярність так званого «глибокого навчання». Глибоке навчання — це нейронні мережі. Вони потребують більше даних для тренування, а визначальним є те, що вони мають складну та багатошарову будову і тому можуть вивчати складніші закономірності та працювати з зображеннями, мовою, аудіо.  А ще програма не розуміє, що інформація буває неправдивою. Хоча може запам’ятати, які джерела надійні, а які ні. Поки що не зрозуміло, хто несе відповідальність за шкоду, завдану неправдивою або образливою інформацією, яку згенерувала програма. Про цю та інші етичні проблеми, пов’язані зі штучним інтелектом, сперечаються фахівці.

Словом, штучний інтелект — не магія й не панацея. Хоча, скоріш за все, нам рано чи пізно доведеться впустити його у своє професійне життя. Асоціація етичної журналістики радить не забувати: штучний інтелект — не особа, а лише технологія. Яка не може з власної волі змінити журналістику, зробивши її більш чи менш етичною або відповідальною. Адже штучний інтелект керується волею та вибором людини. 

На питання, чи робить штучний інтелект журналістику кращою, чи гіршою, Rose одна з найбільш розвинутих чат-ботів сьогодення, — відповідає: «Я б хотіла пояснити це тобі, але мені здається, що це просто інстинкт». 

Головне зображення Noor Sethi

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.