Типові помилки, що можуть трапитись навіть у найбільших медіа.

Ми вже писали про те, які характерні SEO-помилки зустрічаються у текстах майже кожного ЗМІ. Тепер розберемо технічну складову. Почнемо з популярних помилок, які медіа може перевірити самостійно.

І в більшості випадків виправити за допомогою штатного програміста.

1. 404 сторінки

«Помилка 404» або «сторінка на знайдена» виникає тоді, коли на сервері стається збій. Сторінки більше не існує, її перенесли/прибрали, людина зробила помилку в посиланні або воно бите (тобто таке посилання, що веде на неіснуючу сторінку) тощо. Причин може бути багато, як і самих 404 сторінок на сайті.

Головне розуміти, що 404-ті сторінки підвищують показник відмов, погіршують оптимізацію сайту і призводять до втрати трафіку.

Тому є два святі правила для медіа:

Перше. Потрібно регулярно перевіряти кількість битих посилань на сайті і прибирати їх. Для цього є Google Search Console. Відкриваємо розділ «індекс», йдемо в «охоплення», далі бачимо «деталі» і там – «надіслану URL-адресу не знайдено (404)». Це і є список таких битих посилань.

Друге. Потрібно правильно оформити 404 сторінку. Щоб люди не виходили з вашого сайту, а йшли на інші матеріали. Адже медіа навіть не уявляють, скількох читачів вони можуть втратити на цьому етапі.

Якщо ви не знаєте, як виглядає ваша 404 сторінка — просто вставте в браузері посилання на своє медіа, але додайте в кінці «/» і якийсь набір літер. Наприклад: https://www.bbc.co.uk/sfbg

У більшості медіа з’являється просто «404» на пів екрану. В кращому випадку з’явиться також посилання, яке поверне вас на головну сторінку сайту. Але на сьогодні існують значно ефективніші способи утримати читача і навіть покращити імідж видання. 

Давайте розглянемо на прикладі двох українських інформагентств — «Інтерфаксу» і «Уніану».

Ось так бачить сторінку читач «Інтерфаксу»:

А ось так — читач «Уніану»:

Думаємо, не варто пояснювати, кому вдається втримати більшу кількість читачів?

В ідеалі, на відсутній сторінці має бути форма пошуку і популярні статті медіа, а не білий екран. Замість «404» краще пояснити користувачу, що «щось пішло не так».

На відсутній сторінці також може бути тематичний жарт або зображення, якщо ви — нішеве видання. Сторінка обов’язково має бути у стилі сайту. Тобто з вашим логотипом і у ваших кольорах.

2. Показники PageSpeed Insights

PageSpeed Insights, або PSI це дуже простий інструмент Google, за допомогою якого можна перевірити параметри сайту, що впливають на швидкість його завантаження. Система оцінює кожну окрему сторінку, а не сайт загалом.

Важливо! На швидкість завантаження впливає багато параметрів, які PSI не здатен узагальнено проаналізувати. Зокрема й те, як далеко знаходиться користувач від серверу, яка у нього швидкість інтернету, що саме він натискає на сайті, а також коли він туди зайшов у годину пік чи посеред ночі. 

Тобто PSI краще розцінювати як інструмент, який допоможе знайти і прибрати слабкі місця сайту й покращити його функціонал зменшити картинки, попрацювати над кешем чи кодом, задуматися над зміною сервера тощо.

Як це працює?

Спочатку потрібно взяти посилання на головну медіа чи конкретну сторінку, вставити його в PageSpeed Insights і натиснути «аналізувати». Ви побачите два результати — для мобільних і комп’ютерів. Максимальний бал — 100.

Розглянемо на прикладі сайту BBC:

Показник — 38 зі 100. Червоний колір означає, що справи не дуже, помаранчевий — більш-менш, зелений — ідеально. Але знайти завжди «зелене» медіа навряд можливо. Ми в SEOforMedia не зустрічали таких жодного разу! 

Сторінки ЗМІ зазвичай містять багато тексту, лінків, рубрик, важких картинок, відео тощо. А тому їм апріорі складніше, ніж невеличкому сайту якогось агентства. Для медіа вийти в помаранчеву зону — вже класний результат.

Але навіть якщо ви в червоній — є значна різниця між 38 зі 100 і, скажімо, 5 зі 100. Саме дуже низькі показники, на жаль, ми бачимо регулярно.

Якщо ви будете повторювати тест — показники будуть щоразу відрізнятися, але не кардинально. Тож загальну картину ви зрозумієте.

Зверніть увагу на інформацію під показниками: тобто на «можливості» та «діагностику». Саме там містяться основні поради щодо того, що можна виправити на сайті.

Чому швидкість завантаження сайту — це так важливо?

Після літніх апдейтів ґуґла швидкість сайту стала ще важливішим параметром, особливо для мобільної версії. Причини доволі очевидні. Чим довше вантажиться сайт — тим більше людей перемикається, не дочекавшись відкриття.

Отже, користувач Google не отримує відповідь на своє запитання. Відповідно, ґуґл не виконує свого головного завдання — не дає цю відповідь.

Логічно, що пошуковик обирає ті сайти, де показник перебування користувача на сайті довший. Тому обов’язково перевірте сайт через PSI і спробуйте покращити ефективність.

3. Безпечний протокол

Частина медіа досі використовує не захищений протокол передачі даних «http» замість його безпечного розширення «https». 

Саме «https» захищає процес обміну даними і є стандартом веб-безпеки. Тому він є також фактором ранжування в Google.

Виглядає «http» ось так:

Тобто біля посилання ґуґл сам вказує, що воно ненадійне і може навіть заважати чи не дозволяти користувачу зайти на сайт. 

Натомість це мало б виглядати ось так:

«http» — досі дуже поширений серед нішевих та регіональних медіа. 

Перехід з «http» на «https» майже гарантовано призведе до тимчасового просідання трафіку. Але якщо усе зробити правильно у супроводі SEO-спеціаліста трафік не лише швидко відновиться, але й виросте.

4. Дублі сайту

Сайт має бути доступним лише в одному форматі:

  • з «www» або без;
  • з «/» або без;

Якщо в Google індексуються обидва варіанти — це дублювання контенту. Тобто одні і ті ж сторінки існують за двома різними посиланнями.

Це, у свою чергу, має дуже погані наслідки з точки зору SEO, бо контент перестає бути унікальним.

Якщо у вашого сайту є подібна проблема — терміново зверніться до спеціалістів. Важливо правильно вибрати ту версію, на яку потрібно ставити редирект, а також налаштувати його з програмістом.

5. Карта сайту і файл robots

Карта сайту і файл robots несуть надважливу інформацію про сайт для Google. 

Карта сайту, або Sitemapце файл-зміст вашого сайту для ґуґла. Тобто структурований список всіх сторінок, за допомогою якого роботи пошуковика орієнтуються на сайті.

robots.txt — це файл-інструкція для пошуковиків, у якій є інформація про те, як сканувати сайт, які сторінки важливі, а які — ні. У ньому також міститься директива для Google, що вказує, як зчитувати карту сайту.

Оскільки у медіа дуже багато сторінок обидва файли їм критично необхідні. Карта сайту повинна автоматично оновлюватися, а robots — містити правильні директиви.

Тому необхідно перевірити наявність обох файлів на вашому сайті. Для цього використайте такі посилання, замість «site.com» вказавши URL свого медіа:

  • https://site.com/sitemap.xml
  • https://site.com/robots.txt

Якщо щось з цього у вас відсутнє і ви бачите 404-ту сторінку, або у вас є сумніви, що воно працює коректно —  радимо звернутись до SEO-спеціалістів.

Матеріал створено у співпраці із SEOforMedia

Схожі матеріали:

Крихкі стіни
Окей, ґуґле, що там у новинах?
Пекельце, на яке ми заслужили
Як працюють алгоритми YouTube
Чому мій класний текст не читають?

Головне зображення: Myriam Jessier

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.