Типові помилки, що можуть трапитись навіть у найбільших медіа.
Ми вже писали про те, які характерні SEO-помилки зустрічаються у текстах майже кожного ЗМІ. Тепер розберемо технічну складову. Почнемо з популярних помилок, які медіа може перевірити самостійно.
І в більшості випадків виправити за допомогою штатного програміста.
1. 404 сторінки
«Помилка 404» або «сторінка на знайдена» виникає тоді, коли на сервері стається збій. Сторінки більше не існує, її перенесли/прибрали, людина зробила помилку в посиланні або воно бите (тобто таке посилання, що веде на неіснуючу сторінку) тощо. Причин може бути багато, як і самих 404 сторінок на сайті.
Головне розуміти, що 404-ті сторінки підвищують показник відмов, погіршують оптимізацію сайту і призводять до втрати трафіку.
Тому є два святі правила для медіа:
Перше. Потрібно регулярно перевіряти кількість битих посилань на сайті і прибирати їх. Для цього є Google Search Console. Відкриваємо розділ «індекс», йдемо в «охоплення», далі бачимо «деталі» і там – «надіслану URL-адресу не знайдено (404)». Це і є список таких битих посилань.
Друге. Потрібно правильно оформити 404 сторінку. Щоб люди не виходили з вашого сайту, а йшли на інші матеріали. Адже медіа навіть не уявляють, скількох читачів вони можуть втратити на цьому етапі.
Якщо ви не знаєте, як виглядає ваша 404 сторінка — просто вставте в браузері посилання на своє медіа, але додайте в кінці «/» і якийсь набір літер. Наприклад: https://www.bbc.co.uk/sfbg
У більшості медіа з’являється просто «404» на пів екрану. В кращому випадку з’явиться також посилання, яке поверне вас на головну сторінку сайту. Але на сьогодні існують значно ефективніші способи утримати читача і навіть покращити імідж видання.
Давайте розглянемо на прикладі двох українських інформагентств — «Інтерфаксу» і «Уніану».
Ось так бачить сторінку читач «Інтерфаксу»:
А ось так — читач «Уніану»:
Думаємо, не варто пояснювати, кому вдається втримати більшу кількість читачів?
В ідеалі, на відсутній сторінці має бути форма пошуку і популярні статті медіа, а не білий екран. Замість «404» краще пояснити користувачу, що «щось пішло не так».
На відсутній сторінці також може бути тематичний жарт або зображення, якщо ви — нішеве видання. Сторінка обов’язково має бути у стилі сайту. Тобто з вашим логотипом і у ваших кольорах.
2. Показники PageSpeed Insights
PageSpeed Insights, або PSI — це дуже простий інструмент Google, за допомогою якого можна перевірити параметри сайту, що впливають на швидкість його завантаження. Система оцінює кожну окрему сторінку, а не сайт загалом.
Важливо! На швидкість завантаження впливає багато параметрів, які PSI не здатен узагальнено проаналізувати. Зокрема й те, як далеко знаходиться користувач від серверу, яка у нього швидкість інтернету, що саме він натискає на сайті, а також коли він туди зайшов — у годину пік чи посеред ночі.
Тобто PSI краще розцінювати як інструмент, який допоможе знайти і прибрати слабкі місця сайту й покращити його функціонал — зменшити картинки, попрацювати над кешем чи кодом, задуматися над зміною сервера тощо.
Як це працює?
Спочатку потрібно взяти посилання на головну медіа чи конкретну сторінку, вставити його в PageSpeed Insights і натиснути «аналізувати». Ви побачите два результати — для мобільних і комп’ютерів. Максимальний бал — 100.
Розглянемо на прикладі сайту BBC:
Показник — 38 зі 100. Червоний колір означає, що справи не дуже, помаранчевий — більш-менш, зелений — ідеально. Але знайти завжди «зелене» медіа навряд можливо. Ми в SEOforMedia не зустрічали таких жодного разу!
Сторінки ЗМІ зазвичай містять багато тексту, лінків, рубрик, важких картинок, відео тощо. А тому їм апріорі складніше, ніж невеличкому сайту якогось агентства. Для медіа вийти в помаранчеву зону — вже класний результат.
Але навіть якщо ви в червоній — є значна різниця між 38 зі 100 і, скажімо, 5 зі 100. Саме дуже низькі показники, на жаль, ми бачимо регулярно.
Якщо ви будете повторювати тест — показники будуть щоразу відрізнятися, але не кардинально. Тож загальну картину ви зрозумієте.
Зверніть увагу на інформацію під показниками: тобто на «можливості» та «діагностику». Саме там містяться основні поради щодо того, що можна виправити на сайті.
Чому швидкість завантаження сайту — це так важливо?
Після літніх апдейтів ґуґла швидкість сайту стала ще важливішим параметром, особливо для мобільної версії. Причини доволі очевидні. Чим довше вантажиться сайт — тим більше людей перемикається, не дочекавшись відкриття.
Отже, користувач Google не отримує відповідь на своє запитання. Відповідно, ґуґл не виконує свого головного завдання — не дає цю відповідь.
Логічно, що пошуковик обирає ті сайти, де показник перебування користувача на сайті довший. Тому обов’язково перевірте сайт через PSI і спробуйте покращити ефективність.
3. Безпечний протокол
Частина медіа досі використовує не захищений протокол передачі даних «http» замість його безпечного розширення «https».
Саме «https» захищає процес обміну даними і є стандартом веб-безпеки. Тому він є також фактором ранжування в Google.
Виглядає «http» ось так:
Тобто біля посилання ґуґл сам вказує, що воно ненадійне і може навіть заважати чи не дозволяти користувачу зайти на сайт.
Натомість це мало б виглядати ось так:
«http» — досі дуже поширений серед нішевих та регіональних медіа.
Перехід з «http» на «https» майже гарантовано призведе до тимчасового просідання трафіку. Але якщо усе зробити правильно у супроводі SEO-спеціаліста — трафік не лише швидко відновиться, але й виросте.
4. Дублі сайту
Сайт має бути доступним лише в одному форматі:
- з «www» або без;
- з «/» або без;
Якщо в Google індексуються обидва варіанти — це дублювання контенту. Тобто одні і ті ж сторінки існують за двома різними посиланнями.
Це, у свою чергу, має дуже погані наслідки з точки зору SEO, бо контент перестає бути унікальним.
Якщо у вашого сайту є подібна проблема — терміново зверніться до спеціалістів. Важливо правильно вибрати ту версію, на яку потрібно ставити редирект, а також налаштувати його з програмістом.
5. Карта сайту і файл robots
Карта сайту і файл robots несуть надважливу інформацію про сайт для Google.
Карта сайту, або Sitemap — це файл-зміст вашого сайту для ґуґла. Тобто структурований список всіх сторінок, за допомогою якого роботи пошуковика орієнтуються на сайті.
robots.txt — це файл-інструкція для пошуковиків, у якій є інформація про те, як сканувати сайт, які сторінки важливі, а які — ні. У ньому також міститься директива для Google, що вказує, як зчитувати карту сайту.
Оскільки у медіа дуже багато сторінок — обидва файли їм критично необхідні. Карта сайту повинна автоматично оновлюватися, а robots — містити правильні директиви.
Тому необхідно перевірити наявність обох файлів на вашому сайті. Для цього використайте такі посилання, замість «site.com» вказавши URL свого медіа:
- https://site.com/sitemap.xml
- https://site.com/robots.txt
Якщо щось з цього у вас відсутнє і ви бачите 404-ту сторінку, або у вас є сумніви, що воно працює коректно — радимо звернутись до SEO-спеціалістів.
Матеріал створено у співпраці із SEOforMedia
Схожі матеріали:
Крихкі стіни
Окей, ґуґле, що там у новинах?
Пекельце, на яке ми заслужили
Як працюють алгоритми YouTube
Чому мій класний текст не читають?
Головне зображення: Myriam Jessier