Бывает ситуации, когда нужно не быстро проиндексировать страницы, а убрать их с результатов поиска.
Например, когда вы купили доменное имя, и создаете на нем совершенно новый сайт, который никак не связан с предыдущим. Или в индекс попали страницы, которые там не должны быть. Или вы просто решили закрыть раздел на сайте, который больше не актуален.
Сегодня речь про то, как убрать страницы из индекса поисковых систем Google и Яндекс.
Мы детально рассмотрим основные способы, с помощью которых можно быстро убрать страницы из результатов поиска.
Давайте сразу перейдем к делу!
Способы убрать страницы из индекса поисковых систем:
1. Удаление в инструментах Вебмастеров
Самым простым вариантом удаления страниц из индекса является удаление через Google Webmaster Tools и Яндекс Вебмастер.
Удаление страниц из поиска Google
Заходим в:
— индекс Google
— удалить URL адреса
Далее нажимаем «создать новый запрос на удаление» и добавляем в него нужный адрес URL, который удаляем.
После чего отправляем запрос на удаление страницы.
Далее URL страницы вноситься в список удаляемых, и переходит в статус ожидания.
Сразу возникает вопрос, а сколько ждать?
Удаление страниц происходит очень быстро. Вот тот же сайт, через 8 часов, после добавления:
Даже при не малом объеме страниц, можно убрать их из индекса крайне быстро. Например, тот же сайт, немногим ранее:
То есть было более 1200 страниц, потом стало пару десятков. А сейчас осталась практически одна главная страница.
Удаление страниц из поиска Яндекса
Переходим по ссылке: http://webmaster.yandex.ua/delurl.xml
Добавляем нужный адрес страницы, который необходимо удалить.
В итоге можем получить такой ответ:
То есть, все равно придётся сделать ниже описанные моменты, которые ускорят процесс удаления страниц из индекса Яндекса.
2. Robots.txt
Файл robots.txt очень нужный инструмент, если дело идет к разрешению или запрещению индексации сайта от поисковых ботов.
Для того, чтобы удалить конкретные страницы с помощью robots.txt, то в сам файл дописываем такое:
За не индексацию или исключение страниц или разделов отвечает функция: «Disallow:».
Можно закрывать от индексации, как отдельные страницы, так и целые разделы сайта. То есть то, что вы не хотите индексировать поисковыми системами. Robots.txt учитывается Google и Яндекс.
Например – закрытие раздела:
User-Agent: *
Disallow: /razdel
Закрытие страницы:
User-Agent: *
Disallow: /stranica1.html
Закрытие страниц поиска:
User-Agent: *
Disallow: /seoprofy.ua/?s*
Про robots.txt скоро будет очень объемный пост с многими техническими моментами, которые как минимум стоит знать и применять для решения задач сайтов.
3. 404 ошибка
Так же важно создать страницу 404 ошибки, чтобы сервер отдавал 404. Тогда при очередной индексации сайта поисковыми ботами они выкинут эти страницы из индекса.
Ответ сервера 404 ошибки создается по умолчанию, так как если ее не делать, на сайте может быть множество дубликатов страниц, которые плохо повлияют на рост трафика.
Хочу заметить, что удаление страниц из индекса таким способом может занять время, так как нужно дождаться ботов поисковых систем.
Это основные моменты, которые могут повлиять на удаление страниц из индекса поисковых систем.
В практике очень редко использует другое, как:
— мета тег robots
— X-robots-Tag
Но чтобы убрать нужные страницы из индекса наверняка, то лучше использовать все 3 выше описанные методы. Тогда это будет на порядок быстрее.
Так же можно просто удалить страницы и оставить лишь заглушку сайта, но не факт, что страницы пропадут из индекса очень быстро, поэтому лучше им в этом помочь.
Статьи которые дополняют:
— 5 способов удалить страницу из поиска Яндекса или Google
— Как использовать robots.txt рекомендации Яндекса
— Окончательное удаление страницы из индекса Google
А какие способы вы еще знаете, чтобы быстро удалить страницы из поиска?