Як підготувати сайт до пошукової видачі: чек-лист для новачків

    Оптимізація сайту – основа його успішного просування у топ пошукової видачі. Однак це не так просто: дається взнаки безліч нюансів, тонких налаштувань і технічних особливостей. Новачки не завжди їх враховують, а це загрожує помилками та втраченими грошима.

    Зміст:

    Щоб допомогти їм, а також упорядкувати свої знання, ми написали цю статтю. У ній ми максимально докладно опишемо, як знайти недоліки на сайті та усунути їх.

    Технічна оптимізація сайту – що це таке

    Технічна оптимізація сайту – це набір заходів та робіт з налаштування та покращення функціональних особливостей сайту для його кращої взаємодії з алгоритмами пошукових систем. Ми розглядаємо технічну частину підготовки ресурсу першою, оскільки деякі аспекти її проведення складні та/або неочевидні.

    Крім того, якісно проведені роботи з покращення дають змогу вище ранжуватися у видачі, що збільшить органічний трафік (це відвідувачі, чий перехід не потребує витрат) та залучить нові ліди.

    Технічний аудит сайту: виявлення та усунення помилок

    При проведенні технічної seo-оптимізації слід звернути увагу на такі недоліки:

    1. Наявність застарілих протоколів безпеки та шифрування (відсутність протоколу HTTPS).
    2. Проблеми із файлом robots.txt.
    3. Некоректна робота або не оптимізована структура sitemap.xml.
    4. Дублювання тексту чи іншого контенту.
    5. Помилки, що виникають при переході на сторінку (ланцюжки редиректів, 4хх та 5хх).
    6. Непрацюючі редиректи.
    7. Повільна швидкість завантаження сторінки.
    8. Проблеми з кодом або версткою сайту – елементами CSS/JavaScript.
    9. Відсутність оптимізації під мобільні пристрої.
    10. Зображення без alt-опису.

    Як знайти помилки

    Для повноцінного SEO-аналізу потрібно здійснити перевірку по кожному з потенційних недоліків. Здорова альтернатива – одразу просканувати сайт на їхню наявність. Наприклад, візьмемо сайт https://resto-presto.com.ua/ та вивчимо його за допомогою професійного сервісу SE Ranking.

    Для початку необхідно створити проект, який аналізуватимемо. Реєструємось та вносимо домен на сайт.

    se ranking реєстрація

    При необхідності вносимо ключові слова, за якими необхідно відстежити позиції сайту.

    ключові слова, за якими необхідно відстежити позиції

    Далі – вибираємо пошукову систему та мову її інтерфейсу. Після цього вказуємо або запитуємо автоматичний підбір конкурентів (за бажанням). Останнім кроком є підключення сервісів статистики та аналітики Google Analytics, Яндекс.Метрика, Google Search Console та Яндекс.Вебмастер.

    Готово. Тепер переходимо до розділу «Аудит сайту». Ми одразу потрапляємо на оглядову сторінку, за допомогою якої можемо оцінити загальний стан та основні помилки ресурсу.

    Аудит сайту

    Переходимо до розділу «Звіт про помилки». Ліворуч розміщено стовпець, де вони згруповані за типами. Наприклад, на скріншоті знизу відкрито розділ із проблемами безпеки сайту. При натисканні на конкретну проблему відкривається тезовий звіт. У даному випадку її джерело – sitemap.xml, у якому виявлено сторінки із застарілим протоколом безпеки HTTP.

    Звіт про помилки

    Як виправити недоліки

    Наступний етап технічної оптимізації сайту – переналаштування та виправлення помилок. Почнемо по-порядку з найбільш вагомих та критичних для стабільної роботи ресурсу, а потім перейдемо до другорядних.

    1. Відсутність протоколу HTTPS

    Протокол HTTPS (від англ. HyperText Transfer Protocol Secure) – надбудова для HTTP, що широко застосовувався в минулому, покликана підвищити рівень безпеки при передачі даних. І тому алгоритм використовує шифрування стандарту TLS/SSL.

    Механізм роботи HTTPS виправдовує його використання. Переконайтеся:

    • Браузер надсилає запит на сайт;
    • У відповідь він одержує від ресурсу сертифікат;
    • Браузер перевіряє сертифікат на справжність його емітента (останній не є сайтом, до якого звертається браузер);
    • При підтвердженні справжності сертифіката ресурс та браузер створюють симетричний ключ шифрування;
    • За допомогою цього ключа організується безпечний канал, яким передаються дані.

    Кожне нове з’єднання кодується новим ключем. Він є комбінацією з більш ніж 100 цифр і букв, а перехопити його практично неможливо. Така система захищає дані від перехоплення шахраями. У зв’язку з цим популярні браузери вже з 2017 року маркують сайти з застарілими протоколами HTTP як ненадійні.

    Тим важливіше запровадити його, усвідомлюючи всю незахищеність сайту перед атаками аферистів.

    img class=”aligncenter wp-image-10671 size-full” src=”/wp-content/uploads/2022/02/proverka-na-https.png” alt=”Отсутствие протокола HTTPS” width=”1031″ height=”649″>

    Як виправити цей недолік?

    Необхідно звернутися до надійного постачальника сертифікатів та придбати необхідний цифровий документ. Також необхідно вирішити, який тип сертифіката найкраще підходить для вашого сайту:

    • Domain Validation – найпростіший в отриманні, не потребує додаткових перевірок. Встановлюється протягом півгодини після перевірки права володіння доменним ім’ям та оплати послуг. Рекомендується для невеликих, простих у структурі ресурсів або тих, які не обробляють дані платіжних карток клієнтів – форумів, особистих блогів, сайтів-візиток тощо;
    • Organization Validation – для отримання цього сертифіката необхідно надати реєстраційне свідоцтво організації, пройти перевірку, яка здійснюєтиься шляхом телефонних дзвінків. Такий сертифікат встановлюють власники інтернет-магазинів, підприємці, юридичні та страхові компанії;
    • Extended Validation – для такого документа потрібні розширені перевірки. Доведеться надати свідоцтво про реєстрацію фірми та пройти телефонне опитування. Підходить для великих та складних організацій – банків, держустанов, корпорацій та конгломератів.

    Також слід стежити за продовженням терміну дії сертифікатів. Після отримання цифрового документа можна налаштувати редирект на HTTPS.

    Рекомендуємо перевірити сайт на наявність проблем з безпекою за допомогою SE Ranking після переходу на новий протокол. Це пов’язано з тим, що деякі сторінки перелінковані застарілими посиланнями із шифруванням HTTP.

    2. Проблеми з robots.txt

    Robots.txt (індексний файл) – текстовий документ, який інструктує пошукові системи щодо індексування сторінок сайту. Він знаходиться в кореневій директорії ресурсу і зазвичай доступний за посиланням:

    https://site.com.net/robots.txt

    Інструкції, які можна прописати для роботів пошукових систем розділяємо на умовні три типи:

    1. Повний доступ (Allow) – дозволяє сканувати всі елементи сторінки;
    2. Без доступу (Disallow) – заборона сканування сторінки;
    3. Частковий доступ – дозволяє сканувати лише частину сторінки або її елементи.

    Також у robots.txt можна вказати інструкції під кожну певну пошукову систему.

    Проблеми з robots.txt

    Як додати файл robots.txt

    За допомогою блокнота або іншого текстового редактора створюєте файл. У ньому пропишіть інструкції роботів окремо, але не залишайте порожніх рядків між командами.

    Крім тих, що ми вказували вище, в індексному файлі є такі директиви:

    • User-agent – ​​визначає роботів, які повинні дотримуватися відповідних інструкцій;
    • Sitemap – інструктує роботів у тому, що це обов’язкові до індексації сторінки перебувають за адресою https://site.net/sitemap.xml;
    • Clean-param – вказує на окремі параметри, які слід враховувати під час індексації (використовується тільки для Яндекса, допомагає знаходити дублі контенту);
    • Host – вказує вибір правильного дзеркала при індексуванні Яндексом;
    • Crawl-delay – задає роботу мінімальну кількість секунд між завантаженнями двох сторінок (команда буде корисна для запобігання перевантаженню сервера).

    Не потрібно створювати файл robots.txt вручну. Він генерується автоматично в деяких CMS. Також його можна сформувати за допомогою спеціалізованих сервісів.

    3. Відсутність чи проблеми зі структурою sitemap.xml

    Карта сайту або sitemap.xml – документ, що містить список та ієрархію сторінок ресурсу. Він актуальний для сайтів зі складною структурою та великою кількістю сторінок. Також карта сайту необхідна ресурсам без «хлібних крихт» (навігаційних ланцюжків), які мають глибоку вкладеність.

    Цей файл, як і robots.txt, можна створювати в текстовому форматі. Однак тоді він зможе містити лише URL-сторінок. А ось xml – набагато гнучкіша форма змісту карти сайту. У ньому можна вказати:

    • Пріоритет сторінки;
    • Дату останнього оновлення;
    • Частоту зміни сторінки.

    Однак навіть за наявності компактного сайту відсутність sitemap.xml може зіграти злий жарт. Пошукові системи враховують його відсутність як негативний чинник при індексації. Наслідок – зниження місця у пошуковій видачі. Це не обов’язково відбудеться, але ймовірність є.

    Також без sitemap.xml пошуковим роботам самостійно доводиться:

    1. знаходити зміни на старих сторінках ресурсу;
    2. визначати пріоритетність та періодичність індексації сторінок;
    3. шукати нові сторінки сайту.

    Без прямої вказівки краулери проводять індексацію повільно або з помилками (а частіше і те, й інше).

    Як створити sitemap.xml?

    Все досить просто: файл допоможе сформувати будь-який автоматичний генератор (HTML Web, MySitemapGenerator, SaitReport та Cy-Pr). Достатньо знайти його у пошуку, ввести домен та почати прописувати сторінки. Альтернатива – спеціальні плагіни для CMS, що автоматично створюють карту сайту.

    Далі – завантажуємо створений файл, обов’язково перейменовуємо його на sitemap.xml. Додаємо файл до кореневої директорії сайту. Після цього сповіщаємо пошукові системи про появу карти сайту на нашому ресурсі. Для цього заходимо в Яндекс.Вебмастер, у розділі «Індексування» знаходимо вкладку «Файли Sitemap». Завантажуємо файл і повторюємо ту ж саму процедуру дляGoogle Search Console.

    4. Наявність дубльованого контенту

    Повторення змісту сторінок може здатися дрібницею до того самого моменту, коли сайт опуститься в пошуковій видачі. Пошукові системи не зможуть визначити, яка зі сторінок краще відповідає на запит користувача. Крім того, дублі впливають на:

    1. Переходи за природними посиланнями, розміщеними на сторонніх сайтах. Трафік можуть отримувати дублі замість сторінок, що просуваються;
    2. Збільшення швидкості індексації сторінок із боку пошукових систем. Останнім доведеться краулити не тільки цільові сторінки, а й повторювані.

    Наявність дубльованого контенту

    Також доводиться враховувати різні види дублів, а саме:

    1. Повні – абсолютно однакові сторінки, які розташовані на різних URL.
    2. Часткові – повторюється лише певна частина загального змісту сторінки (це можуть бути мета-теги, текст чи графічні зображення).
    3. Семантичні – контент різний, але сторінки сформовані за тими самими ключами.

    Причини виникнення дублів також різняться. Найчастіше вони виникають при генерації сторінок за допомогою CMS. Тоді URL на ту саму сторінку, наприклад, виглядають так:

    https://pizza.net/drinks/softdrinks/cola/

    https://pizza.net/cola/

    Зміна структури ієрархії вмісту ресурсу також може призвести до появи дублів. Водночас останні можуть бути доступні за посиланнями у різних категоріях.

    Не слід забувати і про людський фактор. Веб-майстри з неуважності можуть приписати новий URL старій сторінці.

    Як боротися з контентом, що повторюється?

    Залежно від типу дублів, засоби їхнього усунення відрізняються. Наприклад, часткові повторення зустрічаються у каталогах товарів інтернет-магазинів. Опис залишається однаковим, а товари і фото відрізняються. У такому разі рекомендуємо або створити унікальні тексти кожного товару, або приховувати його. Як альтернативний варіант – прописати вручну теги title та description з інформацією про кожну сторінку.

    Якщо товарів на сайті небагато, додаємо їх на одну сторінку. Звичайно, крок радикальний, тому до нього слід ставитись з обережністю. Необхідно попередньо вивчати реакцію відвідувачів, спрогнозувати рівень лідогенерації для пріоритетних товарів, визначити швидкість завантаження такої сторінки.

    При створенні повністю ідентичних сторінок рекомендуємо проставляти тег canonical. Позначені ним веб-сторінки індексуватимуться, на відміну від дублів. Також перевірте редирект «дзеркала» сайту з www та без. Трапляється, що неправильне налаштування перенаправлення створює безліч повторюваних сторінок.

    При семантичному дублювання необхідно вибрати сторінку, яка є найбільш релевантною до запитів. Після цього налаштувати редирект на неї.

    Після внесених змін рекомендуємо провести повторний технічний аудит сайту.Він покаже, чи залишилися ще проблеми з контентом, що повторюється.

    5. Сторінки, які видають помилки 4хх та 5хх

    Коли на екрані не відображається сторінка, з’являється повідомлення про помилку. У протоколі HTTP вони кодуються тризначними числами, які починаються на 4 або 5. Залежно від коду помилки визначається причина проблеми та її джерело – на стороні клієнта чи сервера.

    помилки 4хх та 5хх

    Коротка класифікація найпоширеніших кодів помилок:

    1. Помилки авторизації (401, 403, 407, 511 – Unauthorized або Forbidden);
    • Пов’язані з авторизацією на сайті чи проксі-сервері. 403 код свідчить про успішне надсилання запиту, при якому доступ до ресурсу цього користувача відсутній;
    1. Помилки запитів до сервера (400, 405, 406, 409, 411-417, 501, 505, 510 та інші);
    • Тут сервер отримав запит, але обробити його може. Причин безліч – від застарілої версії браузера або програми до наявності шкідливого програмного забезпечення на ПК користувача;
    1. Сторінка не знайдена (404 – Not Found);
    • Свідчить про можливість взаємодії з сервером, але водночас файл або сайт, що запитується, відсутній. Помилка поширена, джерелом виникнення можуть бути: недоступність сторінки (або її видалення), відсутність індексного файлу, неправильно вказано місцезнаходження кореневого каталогу в налаштуваннях сервера тощо;
    1. Внутрішня помилка сервера (500 – Internal Server Error);
    • Пов’язана з технічними проблемами або проблемами софту. Найчастіше викликана неправильним налаштуванням параметрів сервера або відсутністю деяких програмних пакетів;
    1. Помилка маршрутизації (502 – Bad Gateway);
    • Сервер, який приймає запит, є шлюзом або проксі-сервером. Він не отримує відповіді від бекенд, у зв’язку з чим видає цей код;
    1. Перевищення часу очікування відповіді на запит (408, 504, 522 – Gateway Timeout);
    • Як і у випадку з кодом 502, у цій ситуації роль сервера виконує шлюз. Виникає, коли час очікування відповіді перевищує встановлений ліміт.

    Як виправити помилки, які дають сторінки?

    Сформований пул помилок розділіть на дві частини – на більше та менше пріоритетні. Виділіть серед важливих ті, які можете вирішити самі, а решту делегуйте розробникам (до них зазвичай належать неполадки на серверній стороні – 500, 502-504 тощо). Після цього не забудьте опрацювати менш критичні помилки, щоб покращити досвід взаємодії відвідувачів із сайтом.

    6. Некоректні редиректи

    Редирект – переадресація користувача із запитуваної сторінки на іншу. Відбувається автоматично, і при правильному налаштуванні непомітна для клієнта. Сторінка, на яку було здійснено підсумковий перехід, називається «акцептор», а запитувана спочатку – «донор»

    Редирект застосовуються, коли сторінки сайту змінюються на інші. Тоді користувачеві не доводиться спантеличено розглядати 404 помилку, а пошуковим роботам – індексувати зайву сторінку. Близько аналогії з дорожніми роботами, коли автомобільний потік перенаправляється в об’їзд при ремонті покриття. Уявіть, яка пробка утворюється, якщо цього не зробити.

    Некоректні редиректи

    Переадресація необхідна у таких випадках:

    1. Як ми вже згадали вище, видаляючи старі URL;
    2. Після сезонного розпродажу в інтернет-магазинах (Чорна п’ятниця, новорічні свята). Ресурс перенаправить відвідувача на нову сторінку, надасть йому альтернативні знижки або товари;
    3. З карток товарів магазинів, що зняті з виробництва або закінчилися;
    4. Перенесення старого сайту на новий домен;
    5. Об’єднання двох та більше сайтів в один;
    6. У разі спроби запитати сайт через www, зі знаком «/» наприкінці URL, при вказівці розширень .html, .htm, .php.

    Редиректи бувають на стороні сервера та клієнта. З боку останнього вони реалізуються через браузер. Найчастіше використовуються наступні види серверної переадресації при seo-оптимізації сайту:

    • 301 (Moved Permanently) – сторінка назавжди переноситься на нову URL-адресу. Водночас стара адреса більше не ранжується в пошуку;
    • 302 (Found, Moved Temporarily) – тимчасовий редирект (часто використовується під час розпродажу та акцій). При цьому стара адреса так само індексується і займає своє місце в пошуковій видачі;
    • 307 (Temporary Redirect) – як і в попередньому випадку, тимчасова переадресація. При цьому зберігаються методи передачі запитів GET та POST.

    Які помилки виникають при налаштуванні редиректів та як їх виправити?

    Redirect і canonical. Радимо з обережністю ставитися до застосування редиректів у випадках, коли достатньо додати тег rel=canonical. Це може сильно вплинути на місце сторінки у пошуковій видачі.

    Невідповідність донору акцептора. Якщо URL-акцептор не відповідає сторінці-донору, пошукові системи можуть вважати редирект неправильним. У такому випадку слід налаштувати переадресацію на більш відповідну сторінку.

    Ланцюжок редиректів. Ситуація коли акцептор одночасно є донором для іншого акцептора. При цьому зчепленими в подібному ланцюжку можуть бути більше 3 сторінок. Це може призвести до збільшення часу завантаження сторінки, відмови від обробки пошуковими системами, виникнення циклічних переадресацій.

    Щоб вирішити проблему, слід скоротити ланцюжок редиректів до 2 релевантних сторінок.

    Редирект robots.txt. Виникає при зміні домену, коли випадково переадресовується файл robots.txt. Слід скасувати таку переадресацію, щоб переїзд на новий домен та індексація у ПС пройшла швидше.

    Циклічні переадресації. Виникають в ланцюжках із 3 і більше сторінок, коли останній акцептор перенаправляє запит на перший URL-донор. Виправляється так само, як і ланцюжок – виключаються зайві акцептори.

    7. Низька швидкість завантаження

    Одним із важливих чинників зручності користування сайтами є швидкість завантаження його сторінок. Уповільнене відтворення запитів дратує користувача і найчастіше закінчується переходом до ресурсу-конкурента.

    Для оцінки зручності сайту з погляду швидкості завантаження сторінок Google визначили показники Core Web Vitals.

    Core Web Vitals

    Ці три метрики вимірюють швидкість завантаження ресурсу, коректність відображення та взаємодії з контентом, а також визначають візуальну стабільність сторінки. Показник LCP фіксує швидкість завантаження найбільшого елемента на головній сторінці. Оптимальний варіант – менше 2,5 с, прийнятний – до 4 с, при перевищенні – результат незадовільний.

    FID визначає час, необхідний для початку взаємодії зі сторінкою (можливість клікати на кнопки та посилання, заповнювати форми тощо). В ідеалі FID сайту менше 100 мс.

    CLS – масштаб усунення верстки. Вимірює зміщення основних елементів сторінки з появою рекламних повідомлень, тексту, картинок та іншого контенту. При його розрахунку враховується найдовша відстань зсуву, площа нестабільних елементів, всього екрана, а також його максимальна висота.

    швидкість завантаження

    Як оптимізувати швидкість завантаження сайту?

    SE Ranking збирає дані Chrome User Experience – сервісу, який обчислює показники LSP, FID та CLS. Після цього формується зручний звіт, де веб-майстер швидко виявляє слабкі місця сайту.

    дані Chrome User Experience

    Для прискорення швидкості завантаження сторінок найчастіше доводиться:

    • Оптимізувати розмір картинок;
    • Розібратися з ланцюжками редиректів;
    • Провести аудит PHP-плагінів;
    • Змінити хостинг або вибрати виділений сервер;
    • Зробити адаптивну верстку під мобільні телефони та планшети;
    • Використовувати мережу доставки контенту CDN, якщо сайт є актуальним серед зарубіжної аудиторії.

    8. «Важкі» елементи JavaScript і CSS

    JavaScript та CSS використовуються front-end розробниками для графічного наповнення, анімації та верстки сторінок сайту. Файли та елементи цих інструментів – одна з найчастіших причин нестабільності та повільного завантаження ресурсу.

    елементи JavaScript та CSS

    Як покращити якість коду?

    1. Насамперед – мінімізуйте його кількість при відображенні головного екрана;
    2. Побудуйте ієрархію завантаження ресурсів;
    3. Зберігайте локально ресурси (<script> та стилі, що підключаються до <head>), які перешкоджають трафіку. У такому разі з’явиться можливість скорочувати, модифікувати та поєднувати кілька файлів;
    4. Забезпечте асинхронне завантаження всіх елементів, які не пов’язані із завантаженням першого екрана.

    9. Застаріла мобільна верстка або її відсутність

    Багато користувачів використовують свої телефони та планшети для проведення часу в мережі. Тому адаптація сайтів під ці пристрої стала вагомим чинником ранжування пошукової видачі.

    Тепер розробникам доводиться враховувати невеликі розміри екрану, зручність натискання пальцем та розміщення функціональних блоків. Згодом виходять нові моделі телефонів, оновлюється прошивка старих, з’являються нові тренди у ве

    Як виправити?

    мобільна оптимізація

    На скріншоті вище ви помітите проблему з мета-тегом viewport. Цей елемент дозволяє адаптувати веб-сторінку до будь-якого екрана. У його атрибутах можна прописати рівень масштабування екрана в залежності від його висоти та ширини. Також у його параметрах вказується право змінити розмір вікна самим користувачем.

    Відповідно необхідно прописати його коректно. Також варто звернути увагу на плагіни, що не підтримуються мобільними браузерами (наприклад, Flash, Silverlight). Краще їх відключити для запобігання можливим конфліктам з іншими елементами верстки.

    10. Відсутність alt-тексту до картинок

    Атрибут alt – короткий опис картинки, що індексується пошуковими системами. Без нього зображення без проблем завантажиться на сайт, але не розкриє свій потенціал залучення трафіку.

    Призначення цього тега – передати зміст картинки. Правильно складений alt завжди лаконічний (до 125 символів), іноді до одного слова. Він також не повторює текст на сторінці і не містить слова “картинка” або “зображення”.

    На практиці скрупульозне прописування атрибуту дає відчутні переваги:

    1. Поява зображення в Google Images – алгоритми пошукового робота підбирають релевантні alt-описи до запиту користувача;
    2. Наявність індексованих картинок підвищує місце сайту у пошуковій видачі;
    3. Поліпшення досвіду користувача.

    alt-текст до картинок

    Як виправити?

    Технічний аудит сайту формує перелік картинок, яким треба прописати атрибут alt. Радимо уважно його складати, звіряючись із змістом сторінки.

    Також реєстр зображень без тега компілюється за допомогою плагіну для CMS.

    Підсумок

    Повна технічна оптимізація сайту – трудомістка робота. Вона включає виявлення різних помилок і недоліків у роботі сайту.

    Частина з них є критичними для підтримки його стабільності. Наприклад, відсутність протоколу HTTPS залишає незахищеними дані користувачів. А проблеми з js/css, sitemap, robots.txt та дублями сторінок не дозволять ПС проіндексувати сайт та високо його ранжувати у пошуку.

    Також мають значення недоліки, які впливають на залучення та утримання користувачів. Серед них – проблеми з переадресацією, низька швидкість завантаження сторінок та помилки їхнього відображення, відсутність адаптивної верстки та alt-описів до картинок.

    Завдякитехнічному та SEO аудиту сайту ви виявите повний список помилок по всіх категоріях. А з нашими рекомендаціями вирішити їх не важко.

    Поділитися:
    07.02.2022
    3178

    Дивіться свіжі кейси:

    SEO кейси від НАС!

    Останні пости: