Как быстро понять, почему просел трафик на сайте — руководство

Как быстро понять, почему просел трафик на сайте — руководство

SeoProfy
26 июня, 2017

В поисковом продвижении самое важное – быстро реагировать.

Особенно в таких ситуациях, когда резко проседает поисковый трафик.

Сегодня мы рассмотрим самое важное, а именно:

  • на что смотреть в первую очередь
  • как быстро понять причину спада посещаемости
  • какие могут быть причины
  • и как на них реагировать

Как быстро понять, почему просел трафик на сайте - руководство

Даже если ваш сайт супер авторитетный, не нарушал правила для вебмастеров от Google.

Это не означает, что он не может пострадать.

Например, вот так:

Жесткое проседание трафика

Мало кому приятны такие ситуации. Поэтому, важно быстро определять, что произошло с сайтом и почему он просел по трафику.

Переходим к делу!

1. Заходим в Google Search Console

Первое, что нужно сделать, это:

  • зайти в Google Search Console
  • посмотреть сообщения
  • убедиться что не было уведомлений

Google Search Console

Уведомления могут быть:

  • за неестественные ссылки
  • за спамный контент
  • и за спамную микроразметку

Есть еще ряд уведомлений (фильтров), но это самые распространенные.

Если пришло сообщений, что сайт попал под санкции, то тогда можно особо не смотреть другие пункты, так как причина понятна и нужно действовать.

Статья в тему: Как выйти из по санкций Google Penguin – инфографика и руководство

В дополнение к статье по ссылке: На самом деле ничего практически не поменялось. Алгоритм работы такой же самый:

  • собираем плохие ссылки в Google Disawov
  • подгружаем файл
  • пишем запрос на пересмотр (крайне важно его правильно написать = от этого зависит очень много)
  • ждем ответа
  • далее либо повторяем предыдущее
  • либо еще параллельно работаем над обратными ссылками

Так как алгоритм есть ручной и автоматический. В случае автоматического, можно и не получить уведомление.

2. Robots.txt

У нас не раз была такая проблема. Когда со стороны разработки случайно в robots.txt закрывали сайт от индексации.

Как следствие, трафик проседает быстро. В этом кейсе описано как можно терять почти 1 млн. посетителей в сутки из-за такой проблемы.

Чтобы проверять robots постоянно и автоматизировать этот процесс, мы сделали инструмент – SiteTracker, который мониторит ключевые показатели и записывает историю изменений.

Пример:

Чтобы проверить robots.txt руками, достаточно пару секунд, а именно:

  • название вашего домена /robots.txt
  • посмотреть не закрыт ли сайт от индекса = disawov

Если все ок, переходим дальше.

Статья в тему: Robots.txt — инструкция для SEO

3. Выпаршиваем сайт на внутренние ошибки

Часто, чтобы быстрее понять, что с сайтом, лучше проверить его внутри, на предмет ошибок и редиректов.

Внутренние редиректы в данном случае самое ключевое.

Для этого:

  • открываем Screaming Frog SEO Spider
  • ставим на скан сайт
  • проверяем на наличие редиректов и ошибок после скана

Screaming Frog SEO Spider

Обращаем основное внимание:

  • не выпадали основные теги
  • левые внутренние редиректы
  • протоколы на страницах

Особенно, если произошла расклейка страниц.

По факту, все что может повлиять на плохую индексацию сайта для Google.

Поэтому проходим по всем ошибкам в summary и пытаемся понять, нету ли внутренних багов.

Статья как никогда в тему: Как сделать технический аудит — пошаговое руководство

4. Google Analytics

С помощью Google Analytics очень очень быстро можно определить, какие страницы выпали в нужный период.

Чек лист:

  • Выбираем нужную нам дату
  • Выбираем сравнить с другим похожим отрезком времени

Выбираем нужную нам дату

  • Смотрим на страниц, которые больше всего просели

Смотрим на страниц, которые больше всего просели

В таком случае быстро становиться понятно, по каким страницам сайт выпал и над чем стоит дальше работать.

В данном случае был пример, когда 3 июня выпал сайт SeoProfy. А именно:

  • выпала главная страница
  • и весь сайт перестал показываться по запросам
  • даже по названию бренда

По факту это оказался глюк Гугл, но на самом деле не понятно. Так как технически все было нормально и ничего не менялось.

Но позже мы начали понимать, почему такое может случаться. Причина будет в пунктах далее.

Статья в тему: Как нас забанил Google. Но потом помиловал

5. Снимаем позиции по сайту

Позиции это наверное первое, после чего можно заметить, что трафик на сайт может сильно упасть.

У нас позиции по проектам в основном снимаются каждый день и можно оперативно видеть ситуацию по проекту.

Когда после проверки позиций видно такое:

Снимаем позиции по сайту

То, можно посмотреть по нужным группам запросов, какие страницы просели и дальше детальней смотреть варианты.

Например:

группы запросов в Rankinity

Логично, если вылетают нужные запросы, трафик так же перестает поступать из поиска на сайт.

6. Проверяем индексацию страниц

В основном на резкое снижение трафика влияет 2 фактора:

  • доступность
  • индексация

Визуально:

Проверяем индексацию страниц

Как следствие, нам быстрое нужно понять, все ли нормально с индексацией страниц.

Если страниц нет в индексе – по ним нет позиций, а значит и трафика.

Проверить индексацию можно:

  • мы на автомате делаем через Site Tracker
  • так же через Google Search Console
  • либо другими доступными сервисами

Google Search Console:

Google Search Console

Но, по такой картине мы ничего особо не увидим.

Что можно сделать, чтобы понять:

  • спарсить весь сайт (тот же Frog или Aparser)
  • спарсить индекса
  • сравнить что есть и чего нет

Но как по мне, это пустая трата времени и лучше использовать сервис для отслеживания.

В итоге:

индексация сайта в сайт трекер

У нас на автомате стоит сделать уведомление, если индекс страниц увеличился или просел на 15-25%.

В обычной рутине, это хорошо помогает.

7. Проверяем работу сервера

Нужно убедиться в том, что:

  • был нормальный uptime
  • сервер не падал

К сожалению, если сервер упал и в это время на сайт пытался зайти Google Bot, то это явная причина, почему сайт может просесть.

Мы тщательно мониторим сайты что находяться в продвижении тем же Site Tracker, который проверяет доступность каждые 5 минут.

Можно использовать любой доступный инструмент, таких на рынке более чем хватает.

8. Проверяем DNS

На эту проблему мало кто обращает внимание, но она крайне важна.

Вот смотрите:

  • может работать сервер
  • но если dns от регистратора (даже если они платные)
  • то они могут не работать
  • и если они не работают, то не работает сайт
  • даже если с вашим сервером все нормально
  • как следствие Google Bot не может попасть на сайт
  • что приводит к падению трафика
  • так как из индекса выпали страницы (скорее всего)

Проверить можно с помощью сервисов как dig.ua и прочих ну или на автомате своим инструментом.

Так у нас пишется, когда что-то не так с dns:

когда что-то не так с dns

Если сайт падал ранее по причине name серверов, то самый простой способ – это посмотреть историю если она пишется.

Так как скорее всего причину вы будете искать не сразу, а после того, как трафик уже упадет на сайте.

Но лучше, мониторить доступность, так как это важнее всего для любого проекта.

Вот пример, когда с сервером все в порядке, но упал dns, и по истории видно, что сайт не был доступен:

по истории видно, что сайт не был доступен

Как следствие, мы сменили на нормальные premium NS у другого регистратора и все стало стабильно.

9. Проверяем уникальность контента

Это очень распространенная причина, почему вылетает сайт. Особенно если он еще новый и не особо авторитетный.

А именно:

  • скопировали контент на дорвеи
  • скопировали контент на сателлиты
  • на трастовые сайты вроде google sites и прочие

Как следствие, такое может повлиять на просадку сайта по позициям или вовсе вылет.

Чем проверить?

  1. Content Watch
  2. Content Yoda
  3. Copyscape
  4. Advego Plagiatus, Text RU
  5. Свой внутренний сервис

В целом без разницы, чем проверять, главное чтобы процент уникальности текстов был всегда нормальный >85%.

Хотя: Часто очень трастовые сайты не подвергаются такому. У нас есть ряд проектов у которых все стаскивают (копипастят) везде где только можно и специально и нет (ниша просто такая) да и сайты плотно в топе.

Что можно сделать, чтобы немного облегчить жизнь?

  • Ставим DMCA protect
  • Блокируем контент от парсеров
  • Ставим premium copyscape
  • Сами отслеживаем и оперативно реагируем

Вот инструкция:

Вот инструкция

10. Смотрим обратные ссылки

Если это Google, то ссылки там играют чуть ли не ключевую роль в ранжировании. Поэтому:

  • Смотрим ссылочный профиль
  • Особенно новые обратные ссылки
  • Смотрим на предмет спама

Например так:

Смотрим обратные ссылки

Так было с сайтом, который нагло зашел в ТОП 3 по ВЧ запросам в хорошем регионе.

Конкуренты со временем устали спамить, так как все ссылки добавлялись в Google Disawov Tool.

Но, если сайт новый или мало авторитетный, то такой спам может очень негативно повлиять на позиции и поисковый трафик.

Главное смотреть на свежие ссылки:

Главное смотреть на свежие ссылки

И сразу добавлять в Disawov Tool плохие. Они могут быть с разными анкорами, зачастую такими:

сразу добавлять в Disawov Tool плохие

В любом случае, если вы видите, что ссылки плохие, то лучше сразу же не медля добавить их как плохие в консоли для вебмастеров Google.

11. Проверяем ссылки с PBN

Если вы используете ссылки с PBN для продвигаемого сайта, то первое на что нужно обратить внимание – это индексация самого PBN.

Если сателлит был деиндексирован, то сразу же нужно убрать с него ссылку на свой проект. Иначе, можно пострадать от этого.

Обычно, когда сателлиты выпадает из индекса, то его либо заподозрили Гугл, либо что-то с ним не так.

Из нашего опыта, убрав ссылку просадки особо не будет. А вот если это не сделать, то сайт может пострадать.

12. Проверяем процент отказов

Открываем Google Analytics. Выделяем органический трафик и смотрим процент отказов по ключевым страницам.

Влияет ли это негативно?

Однозначно да.

В ряде тематик конкуренты используют сервис по типу Userator по такой схеме:

  • берут ВЧ запрос по которому ваш сайт в топе
  • ставят цель зайти на него
  • быстрое его покинуть и вернуться в выдачу по запросу
  • далее зайти на другой сайт (скорее всего конкурента)
  • там нормально походить
  • и больше не возвращаться в выдачу

Как следствие, такой процент отказов может повлиять и главная задача с помощью Google Analytics попытаться понять, есть ли с этим проблемы.

Важно: Нужно постоянно работать над поведенческим, так как это отлично влияет на позиции и работать над тем, чтобы процент отказов был минимальным или постоянно снижался.

Вот, пример небольшого эксперимента:

пример небольшого эксперимента

Где:

  • обновили дизайн
  • добавили больше контента
  • сделали его более читабельным, удобным, в тему
  • переиндексировали
  • и получили результат (пока не топ 1-3 именно по данному сайту, но скоро будет)

В заключение

В данной статье-руководстве мы рассмотрели 12 способов быстро понять, почему просел трафик на сайте из поисковых систем.

На самом деле способов и методов на порядок больше, но они могут занимать дольше времени на определение причины.

Я отталкивался только от слова быстро и чтобы я делал в первую очередь чтобы определить просадку трафика.

Хорошие статьи в продолжение:

Как оценить трафик сайта — 8 способов определить посещаемость

Мелкие фишки для роста SEO трафика

Минус 98% трафика — наказание инициативы заказчика

А что вы думаете по этому поводу? Давайте обсудим в комментариях!

Понравилась статья? Получай свежие статьи первым по e-mail

Оцените статью:
совсем плохоплохонормальнохорошокласс (13 оценок, средняя: 5,00 из 5)
Загрузка...
  • Снежный

    Добрый день! В дополнение к статье хочу спросить о слетах позиций после установки https. У меня как раз такая ситуевина произошла. Все позиции ушли за сотню (был топ3), затем через 5-6 дней поднялась часть страниц в топ10, основные трафикогенерирующие были еще далеко за сто + не находился по бренд кею, через 10 дней все позиции, которые на http были в топ3, попали в топ 10-20. Есть ли смысл дальнейших движений ждать или уже все?

    • смысл есть, у меня похожая картина, но все вернулось обратно, поэтому я бы еще подождал немного
      + если в перспективе https важен, то качать дальше сайт, должно откатить даже выше

      • Александр Бунин

        как бороться с конкурентами которые валят поведенческие факторы с помощью сервисов и софта?

  • Dmitro

    Еще полезно взять у админов логи сервера, распарсить, посмотреть куда и как часто ходит бот, какие ответы получает. Сканируя только спайдером или фрогом многое происходящее внутри не видно.

    • Это да, там же есть доступность в статье, само собой подразумевает)

  • Павел Горбунов

    А что за санкции за спамную микроразметку? Можете привести примеры?
    Честно говоря, впервые сталкиваюсь с таким понятием.

    • Например, если вы в своем ИМ присваиваете разметкой фиктивный рейтинг товарам (например тупо ставите всем по 5 звезд).

      Разметка структурированных данных на некоторых страницах Вашего сайта нарушает правила. Мы стремимся показывать пользователям результаты высокого качества. Поэтому расширенные результаты отображаются только для сайтов, разметка которых соответствует нашим рекомендациям по обеспечению качества. К сайту «…» были вручную применены меры. Исправьте разметку и запросите повторную проверку. Если сайт будет соответствовать нашим рекомендациям, мы отменим принятые меры.

      • Павел Горбунов

        Интересно. А у вас реально были такие примеры в практике? Насколько сильны такие санкции?

        • если убрать все и сделать норм или правильно, то не сильны)

        • Знакомому письмо приходило, а действия санкций замечено не было. Видимо вес малый у подобного рода санкций

    • 1. да примеров куча
      2. если рейтинг не такой = фейковый, приходит сообщение
      3. если там много спец символов, тоже самое
      4. меняем, все уходит)

      • Павел Горбунов

        примеры именно с фальшивыми рейтингами? или есть что-то еще?

        • есть еще со спец знаками по типу емоцци, но убрали все стало норм)

          • Павел Горбунов

            ну понятно.

  • Подскажите дилетанты,где в консоли Google Disawovu Tool и где в Google Analitiks посмотреть как провели позиуии Каждой странице (или хороше руководство для новичков «как с GA разобраться).
    И еще вопрос: Site Trecker ваш инструмент платный?
    Спасибо

  • Mykyta Gaidamaka

    А где смотреть на свежие ссылки?

  • очень хорошая статья, спасибо

    плюс еще к причинам можно добавить введение нового алгоритма ПС, вирусы, или появление сильного конкурента (или нескольких), который выбил продвигаемый сайт из топа по хорошему ВЧ

    • поддерживаю
      вирусы самое оно, дополню, спс)

  • Bons Cats

    Ставим DMCA protect — можно этот момент более подробно расписать. Не смог нагуглить как поставить на автомат.

  • Андрей Малыхин

    У меня вопрос по поводу спамной микроразметки. У меня сайт с отзывами на авто и они размечены как отзывы. Но писал их сам. Это спам или поисковик просто не может этого проверить.

    • тут вопрос в их выводе, часто на автомате выводят их такое гугл наказывает
      если оно для пользователя норм, то не перживайте
      а вообще надо пример, так как пальцем в небо, не вижу про что речь

      • Андрей Малыхин

        Извините за назойливость, но можно чуть подробнее, так как вопрос критической важности. Что такое их выводят на автомате. У меня на сайте написано, что все отзывы присылают пользователи, я только ставлю. Сайт без движка, просто структурированные по маркам авто HTML страницы.

        Или плюнуть и разметить как WebPage от греха.