Багато веб-майстрів при роботі з сайтом можуть вносити правки, які сильно позначаються на його дизайні і функціоналі. У деяких випадках це може бути пов’язано з розробкою нового оформлення для проекту, додаванні різних фішок і т.п. В результаті виникає ситуація, коли потрібно закрити сайт від індексації в пошукових системах, щоб пошукові боти не бачили веб-сайт на стадії розробки.
На допомогу в цьому випадку прийде файл robots.txt, який повинен лежати в кореневій папці проекту. Щоб закрити сайт від індексації у всіх пошукових системами потрібно розмістити в файл robots.txt наступні рядки:
User-agent: *
Disallow: /
Іноді ви можете заборонити індексувати сайт окремим пошуковим роботам (у кожного пошукача є свій), для цього буде потрібно замість зірочки в robots.txt прописати звернення до пошукового робота.
За допомогою Роботс також можна закривати окремі розділи сайту. Для цього слід додати ось такі значення:
User-agent: *
Disallow: /name/
Де name – назва папки. Це заборонить індексацію всіх адрес сайту, які розташовані всередині розділу name.
При цьому можна додатково прописати інструкцію, яка дозволить відкрити для індексації окремий файл. Для цього прописуємо наступні рядки:
User-agent: *
Disallow: /name/
Allow: /name/page_1
В результаті роботи пошукових систем не будуть сканувати весь вміст папки name, крім розділу page_1.
Дану інструкцію також можна окремо прописувати для пошукових роботів.
За допомогою Роботс можна без проблем закрити індексацію зображень на сайті. Для цього розмістіть в файлі рядок Dissallow: із зазначенням формату зображень, які не повинні бути проіндексовані пошуковими ботами. наприклад:
Disallow: *.png
Пошукові системи розпізнають всі піддомени як окремі сайти. Тому необхідно на кожному з них розміщувати свій Роботс. Знаходиться він в кореневій папці вашого поддомена. Щоб закрити від індексації потрібний вам піддомен, додайте в файл robots.txt інструкцію, яка була вказана вище.
Список додаткових директив, які використовуються у файлі robots.txt
Крім стандартних директив, Google, Яндекс та інші пошукові системи знають ще кілька.
За допомогою рядка User-agent: ви можете звернутися в robots.txt до різних відомих пошукових систем. Кожна з них має свого робота, який проводить сканування сторінок сайту. Крім стандартних звернень до Яндексу і Google, які були описані вище, можна прописати звернення і до інших пошукових ботів.
Крім файлу robots.txt можна заборонити для індексації ту чи іншу сторінку проекту. Для цього використовується мета-тег robots, який повинен бути прописаний в html-коді сайту. Пошуковики сприймають його, і він має досить високий пріоритет. Для того щоб заборонити індексування URL, додайте в код такі рядки:
<meta name=”robots” content=”noindex, nofollow”/>
Чи:
<meta name=”robots” content=”noindex, follow”/>
Також можна використовувати альтернативний варіант:
<meta name=”robots” content=”none”/>
Мета тег дає можливість звертатися до пошукових ботів. Для цього потрібно замінити в ньому рядок robots на yandex або googlebot.
Головний редактор.
SEO кейси від НАС!