Как открывать страницы поиска в интернет магазине — руководство

Как открывать страницы поиска в интернет магазине — руководство

Артем Панченко
25 сентября, 2015

Часто, при построении структуры сайта и внедрению в нее функционала, который необходим для комфортного использования интернет магазина посетителями, возникает вопрос:

Что отдавать на индексацию роботам, а что лучше закрыть? Если закрыть, то как это сделать правильно?

Как открывать страницы поиска в интернет магазине - руководство

Давайте же разберемся, какие страницы встречаются на сайте типичного интернет-магазина.

  1. Главная страница
  2. Страница категории
  3. Страница Карточки товара
  4. Страницы Меню (О нас, контакты, доставка)
  5. Странички поиска по сайту.
  6. Страницы фильтрации

Если для первых 4 групп все понятно и эти страницы нужно оптимизировать под необходимые Вам поисковые запросы и запускать в продвижение, то с последними двумя пунктами не все так однозначно.

Страницы фильтрации – это неотъемлемый элемент современного сайта, особенно интернет-магазина. Ведь бывает действительно трудно найти интересующий Вас продукт в широком ассортименте продукции, особенно если данный сайт занимается продажей не узкой группы товаров, а является онлайн-гипермаркетом, который продает тысячи и десятки тысяч товаров.

Страницы фильтрации

Как например выбрать интересующий товар в таком ассортименте?

Именно в таких случаях на помощь приходят системы фильтрации, которые позволяют сортировать и упорядочить отображение товаров, они улучшают удобство для пользователя помогают легче производить навигацию по сайту и все было бы хорошо, если бы фильтры не плодили дубли и не создавали огромные количества мусорных страниц.

Рассмотрим пример. Есть интернет магазин обуви, он занимается продажей товаров от нескольких производителей, допустим это Адидас, Найк, Рибок.

У каждого из этих производителей есть по 5 моделей обуви. Каждая модель выпускается в 5 цветах и 5 размерах.

Итого мы получаем такую систему фильтрации:

Итого мы получаем такую систему фильтрации:

Если начать комбинировать данные фильтры, то получится 18!(факториал) комбинаций фильтров, что равно 6 402 373 705 728 000 комбинаций.

комбинаций

Не все калькуляторы способны произвести подсчет такого числа страниц, а что уже остается говорить о том, что такое количество страниц вдруг появится внутри вашего небольшого интернет-магазина.

А теперь представьте, что все эти страницы (и при том в большинстве случаев с дублирующимся контентом) мы хотим скормить поисковому роботу, после того, как он 1 раз пройдется по всем этим страницам и просканирует их и не обнаружит в них добавочной ценности, то скорее всего робот расценит сайт как некачественный и будет реже его посещать.

Соответственно реже сканировать страницы, которые являются действительно полезными. Тогда в целом ранжирование такого интернет магазина будет плохим.

Такая же проблема со страницами поиска по сайту. Представьте какое количество страниц поиска может быть сгенерировано и скормлено Google, если их не закрывать от индексации.

search-eshop4

В итоге получаем такую картину по индексации сайта.

Также, если данные страницы будут открыты для индексации, то этим смогут воспользоваться недобросовестные конкуренты и навредить вашему сайту путем принудительного загона этих страниц в индекс. Чтобы избежать таких проблем можно воспользоваться несколькими способами, а именно:

1. Закрыть от индексации через файл robots.txt

Данный способ может помочь Вам закрыть от индексации ненужные вам страницы, но только в случае, если в результатах фильтрации есть определенные маски, по которым можно вычислить, что эта страница относится к странице, сформированной в следствии применения фильтров, данный метод работает не для всех CMS, потому его нельзя назвать универсальным.

Статья в тему: Robots.txt — инструкция для SEO

2. Закрытие от индексации при помощи Google Webmasters

Закрытие от индексации при помощи Google Webmasters

Данный метод, как и метод с использованием файла Robots.txt, является не идеальным и подходит не для всех типов сайтов. Однако, поскольку он достаточно прост в реализации, мы привели и его.

Для того, чтобы воспользоваться данным методом необходимо указать в данном поле параметр, который вы хотите закрыть от индексации.

указать в данном поле Параметр

А также особенность страницы, которая предоставляется пользователю.

Примером таких параметров могут быть такие переменные как:

?color=white

или

?size=s

Недостатком такого метода является тот факт, что мы фактически не улучшаем свой сайт, а просто указываем гуглу на его проблемные места. В идеале нужно стремится к улучшению своего сайта и созданию идеальной навигации как для пользователя, так и для робота.

3. Склеивание при помощи Rel=canonical

Склеивание при помощи Rel=canonical

Данный тег показывает поисковому роботу, что страница, является похожей или копией другой страницы, которую вы хотите, чтобы робот проиндексировал.

Данный способ – это простое решение, которое помогает направить робота к тому контенту, который мы действительно ходим проиндексировать, но при этом позволяет пользователям найти, интересующий их продукт.

Далее рассмотрим еще 2 варианта, которые, по нашему мнению, являются самым правильными и эффективными методами борьбы с дублями.

Статья в тему: Атрибут rel= «canonical» — полное руководство по использованию канонических ссылок

4. Подгружать результаты фильтрации при помощи ajax, без смены URL страницы

Данный метод является приоритетным, ведь используя его, можно сделать удобным использование сайта для пользователей и при этом не захламить индекс Google ненужными страницами.

Сложность использования данного метода заключается в том, что для его реализации необходимо привлечь программистов, которые настроят параметры работы фильтров в соответствии с вашим ТЗ, если кратко, то необходимо сформировать список страниц, которые необходимо создать на пересечении фильтров и внести данные страницы в базу данных сайта.

Вот страница начальная страница до применения фильтрации:

до применения фильтрации

Вот мы отфильтровали по 1 параметру, который есть в базе данных страниц, которые нужно выводить. По данному набору фильтров есть частотность и запросы, которые вводят в поисковые системы люди.

Вот мы отфильтровали по 1 параметру

А вот мы отфильтровали результаты по произвольным параметрам, которые не имеют поискового спроса:

А вот мы отфильтровали результаты по произвольным параметрам

Как видим, в последнем примере были выбраны фильтры, подгружены товары, однако URL страницы не поменялся.

Используя пример приведенный выше, покажем более наглядно, какого типа страницы необходимо создавать, чтобы перекрыть пользовательский спрос (в виде запросов в  поисковые системы), а также сделать максимально удобной работу пользователя, который уже находится на сайте.

Nike| air force| black| low  Вот реальный поисковой запрос, который запрашивается пользователями в поисковых системах. Мы вставили разделители между словами для того, чтобы проиллюстрировать на пересечении скольких фильтров находится данная страница, а именно:

  • Бренд
  • Модель
  • Цвет
  • Тип

И если мы создаем такую страницу, которая является очень релевантной данному запросу, добавляем на нее контент, оптимизируем Мета-теги и передаем ей внутреннего веса, то этого может быть достаточно для того, чтобы страница попала в топ, даже без покупки ссылок на нее.

Таким образом, нам необходимо проанализировать спрос, составить семантическое ядро нашего сайта, разбить его на группы, под конкретные страницы, создать ТЗ на создание данных страниц, на пересечениях фильтров программисту и на создание контента контент-менеджеру.

Все же пересечения фильтров, которые не собирают трафик мы выводим при помощи Ajax. Таким образом мы убиваем сразу двух зайцев.

Во-первых, даем возможность пользователю на сайте производить все действия, которые он хочет и фильтровать товары по тем характеристикам, которые для него важны.

Во-вторых, мы не захламляем выдачу поисковых систем лишними страницами, которые нам не нужны в индексе.

5. Закрыть ненужные нам страницы результатов поиска при помощи <meta name=»robots» content=»noindex» />

Данный способ действует по тому же принципу, что и предыдущий, мы выделяем приоритетные страницы, создаем на них контент и даем на индексацию роботу, те же страницы, которые нам в индексе не нужны, мы закрываем от индексации через:

<meta name=»robots» content=»noindex» />

Так, если выбраны те фильтры, которые нужны для создание посадочной страницы, то открывается страница, которая заточена под Поисковые запросы и пользователь получает максимально релевантный контент.

А если выбраны такие фильтры, которые не имеют поискового спроса, например:

«Найк+Адидас+синие+зеленые+42размера» можно проверить через системы статистики, но думаю такие запросы встречаются достаточно редко и их частотность стремится к нулю.

То пользователь получает страницу на которой выведены все интересующие его товары, а робот получает страничку такого вида:

а робот получает страничку такого вида

В итоге получаем те же плюшки, что и в предыдущем методе, а именно: удовлетворяем спрос и не захламляем выдачу.

Однако при использовании данного метода возникает еще 1 проблема (или возможность), которая требует определенных знаний и навыков для ее правильного решения.

Почему проблема или возможность?

Все просто, проблема состоит в том, что, создавая физически такие страницы на сайте, мы отдаем на них часть статического веса со страниц доноров, что уменьшает их вес, а соответственно и негативно сказывается на их ранжировании, ведь всем известно, что при прочих равных, лучше ранжироваться будет та страница, которая имеет больше статического веса.

А почему возможность? Да потому, что мы можем использовать созданные страницы для пере направления веса туда, куда нам нужно. Однако данные манипуляции требуют продуманного подходи и математических расчётов передаваемого веса.

Простым решением может быть внедрение подобного блока, который будет передавать вес на более приоритетные разделы (важно, чтобы они были релевантны той странице, на которой вы находитесь).

чтобы они были релевантны той странице, на которой вы находитесь

Тут может возникнуть вопрос, а какой ссылочный вес может быть на страницах, закрытых при помощи тега noindex, ведь они закрыты. Для того, чтобы разобраться в данной ситуации были проведено такое исследование:

На странице сайта, которая закрыта от индексации была проставлена ссылка с примерно таким анкором «Абрвалаг » на другую страницу этого же сайта, которая до проставления ссылки никак не искалась по слову «Абрвалаг ».

Далее, после того, как робот еще раз обошел весь сайт. Мы повторили поиск по данному слову и страница, на которую была проставлена ссылка, начала ранжироваться.

Итог:

Целью эксперимента было: Убедится, что ссылочный вес со страницы закрытой тегом noindex передается акцептору.

Результат: Вес передается!

Таким образом, мы выделили 2 лучших, по нашему мнению, способа закрытия тех или иных страниц на вашем сайте, в частности систем фильтрации. Какой из них использовать – это ваш выбор и он зависит от ваших предпочтений, навыков ваших SEO специалистов и ваших программистов.

В заключение

Если на вашем сайте правильно организована фильтрация и страницы поиска, то и пользователи довольны и робот счастлив. Использование различных методов работы элементов вашего сайта может повлиять на общее здоровье системы и удобство организации для пользователей.

Очень важно найти баланс между удовлетворением пользователей и улучшением индексации поисковыми системами, ведь это и является залогом успеха в электронной коммерции.

Хорошие статьи в продолжение

Как уникализировать карточку товара интернет магазина

Как сделать технический seo аудит сайта- пошаговое руководство

12 причин, почему Google и Яндекс не индексирует ваш сайт

Понравилась статья? Получай свежие статьи первым по e-mail

Оцените статью:
совсем плохоплохонормальнохорошокласс (11 оценок, средняя: 5,00 из 5)
Загрузка...
  • Просто и понятно 🙂

    • Артем Панченко (SeoProfy)

      Как и все в СЕО:))

  • Спасибо!

  • Артем Панченко (SeoProfy)

    1)У розетки, как раз реализовано при помощи закрытия ненужных страниц с помощью Тега »
    Таким образом получается, что страницы, которые им не нужны в индексе выгллядят как:

    Страница, о которой я говорю — это выбор 2 фильтров в категории Смартфоны, а именно брендов Асер и Алкател.

    при том, если сбросить ссылку на данную страницу, то вы увидите именно ее, а не родительскую категорию

    http://rozetka.com.ua/mobile-phones/c80003/filter/producer=acer%2Calcatel/

    видимо говоря про розетку вы подразумеваете какую-то более старую версию ее сайта, которая в данный момент не актуальна.

    Проверил на нескольких страницах — везде фильтры реализованы по тому же принципу, включая раздел платьев.

    Переделать в корень структуру сайта только потому, что мы написали рекомендации — это сомнительная затея(нужно анализировать каждую конкретную ситуацию, целесообразно ли), а вот при проэктировании качественного продукта, который будет максимально заточен под удобство пользователя и под правильную индексацию поисковиками данные рекомендации придутся кстати.

    2) Страницы с дублирующимся контентом, которые не несут реальной добавочной стоимости — это априори недостаток.

    3) Возможно Метод использования каноникал для вашего проэкта и является актуальным, однако на своей практике мы пришли к выводу, что именно описанные нами два варианта являются наиболее эффективными.
    Если рассматривать с точки зрения того, что каноникал выполнить легче и дешевле, то да это так. А с точки зрения качественного улучшения сайта, лучше пользоваться другими методами, правда это более затратно в финансовом плане и в плане привлечения ресурсов, для выявления и исправления всех багов, которые могут вылезти при реализации.

    По поводу передачи веса — Да ссылочный вес с неканонических страниц будет передавать1)ся на каноническую.

    • Anton

      Спасибо за ответ!
      Сорри, на счёт Розетки я ошибся, просто увидив скрины ajax-способа, решил что они с Розетки, очень уж похожи. Потом и сам залез на Розеткуи понял, что у них не так.

  • Закрываю фильтры, путем добавления мета-тега noindex,nofollow (чтобы бот даже не бегал лишний раз), страницы:
    — когда выбрано 2 параметра из одного и того же фильтра (например 2 цвета, или 2 бренда и т.п.) — такие страницы в поиске не нужны.
    — на основе собранной семантики решаю, до какого уровня вложенности необходимо открыть фильтры. Как правило фильтры 4 УВ (когда выбрано до 4 параметров из разных фильтров) — я оставляю открытыми, а все, что выше — закрываю для индексации.
    — по мере выбора количества фильтров — убираю те параметры, при выборе которых получается страница без товаров. Например я набираю: «Чехол для iPhone 5S» + «Кожаный» и вот не бывает «Красных кожаных чехлов для iPhone 5S», следовательно уже фильтр цвет с параметром «красный» я не покажу на странице результата применения «Чехол для iPhone 5S» + «Кожаный».

    Результат: https://twitter.com/Onlink91/status/647717584641622016

    з.ы.Вообще работа с фильтрами — очень важная часть. Я бы сказал — это одна из основных.

  • SSDD

    Всем привет, спасибо за хороший блог, такой вопрос купили домен разработали сайта залили, смотрим начале выплывать 404 ссылке, проверили гугл + яндекс оказалось до нас был тоже интернет магазин ), структура по урл почти одинаковая, вот только не таких товаров у нас, что делать ? оставить как есть или 301 редирект на главную ?

    • SSDD

      ((

    • Anton Reva

      а товары похожие или совсем другие?
      — если похожие, то лучше делать релевантные 301 редиректы
      — если нет, то пускай остается 404 ошибка.

  • Symy Norcos

    Здр. Вы пишете 18!(факториал) комбинаций фильтров. Не много?
    Я думаю здесь ошибка. У нас ведь не строгая «комбинаторная
    интерпретация» допустим — адидас найк зеленый, тотже самый филтр
    адидас зеленый найк ? А факториал подразумевает — все возможные
    варианты ru.wikipedia.org/wiki/Факториал.

    • Артем Панченко (SeoProfy)

      При неправильной настройке фильтров, а именно порядка вывода элементов из разных блоков будет сформированы различные Урлы, при различной последовательности выбора фильтров, а именно:

      Если будут выбраны фильтры в такой последовательности
      Адидас
      Найк
      Зеленый

      то урл будет иметь вид
      http://www.site.com.ua/adidas/nike/zelenui

      а при другом порядке выбора фильтров мы получим например такой вариант выданной страницы:

      Найк
      Адидас
      Зеленый

      http://www.site.com.ua/nike/adidas/zelenui

      Потому данный аргумент не является правильным. Да и даже если и были допущены ошибки при подсчетах — это не отменяет того, что количество комбинаций огромно и столько страниц отдавать роботу — плохая идея.

      Однако спасибо за замечание.

      • Symy Norcos

        Да все верно в статье. Есть фильтры допустим A B C
        У каждого по n параметров -> A1…..An , B1….Bn, C1….Cn.
        Так вот фильтр A1 B2 C3 будет отдавать те же товары, что и фильтр B2 A1 C3. У нас будут дубли страниц(и правильно отдавать их роботу не надо).
        Нужно либо делать один канонический урл, или сделать строгий шаблон фильтров.

  • Евгений

    Здравствуйте, спасибо за блог и за этот пост. Уж очень он актуален) Прочитал комментарии и не нашел ответа на свой вопрос.

    Вопрос касательно вывода Аяксом нужных урл на которые есть трафик. Дело в том, что мы эти страницы можем и генерировать или заранее создавать привязывая к фильтру (в этом случае мы можем прописать уникальные мета и seo тексты). В обоих случаях страница будет «подсовываться» скриптом, то есть поисковая система не найдет на нее «прямой» ссылки. Тут вопрос встает об индексации и передачи статического веса. Я такую ситуацию видел на сайте 1001 тур, у них тысячи страниц генерируется по маскам и выдаются по фильтру. Но если приглядеться то по сайту в разных «хитрых» блоках распределены все эти ссылки))) Вопрос такой, как вы решаете эту проблему?