В поисковом продвижении самое важное – быстро реагировать.
Особенно в таких ситуациях, когда резко проседает поисковый трафик.
Сегодня мы рассмотрим самое важное, а именно:
- на что смотреть в первую очередь
- как быстро понять причину спада посещаемости
- какие могут быть причины
- и как на них реагировать
Даже если ваш сайт супер авторитетный, не нарушал правила для вебмастеров от Google.
Это не означает, что он не может пострадать.
Например, вот так:
Мало кому приятны такие ситуации. Поэтому, важно быстро определять, что произошло с сайтом и почему он просел по трафику.
Переходим к делу!
1. Заходим в Google Search Console
Первое, что нужно сделать, это:
- зайти в Google Search Console
- посмотреть сообщения
- убедиться что не было уведомлений
Уведомления могут быть:
- за неестественные ссылки
- за спамный контент
- и за спамную микроразметку
Есть еще ряд уведомлений (фильтров), но это самые распространенные.
Если пришло сообщений, что сайт попал под санкции, то тогда можно особо не смотреть другие пункты, так как причина понятна и нужно действовать.
Статья в тему: Как выйти из по санкций Google Penguin – инфографика и руководство
В дополнение к статье по ссылке: На самом деле ничего практически не поменялось. Алгоритм работы такой же самый:
- собираем плохие ссылки в Google Disawov
- подгружаем файл
- пишем запрос на пересмотр (крайне важно его правильно написать = от этого зависит очень много)
- ждем ответа
- далее либо повторяем предыдущее
- либо еще параллельно работаем над обратными ссылками
Так как алгоритм есть ручной и автоматический. В случае автоматического, можно и не получить уведомление.
2. Robots.txt
У нас не раз была такая проблема. Когда со стороны разработки случайно в robots.txt закрывали сайт от индексации.
Как следствие, трафик проседает быстро. В этом кейсе описано как можно терять почти 1 млн. посетителей в сутки из-за такой проблемы.
Чтобы проверять robots постоянно и автоматизировать этот процесс, мы сделали инструмент – SiteTracker, который мониторит ключевые показатели и записывает историю изменений.
Пример:
Чтобы проверить robots.txt руками, достаточно пару секунд, а именно:
- название вашего домена /robots.txt
- посмотреть не закрыт ли сайт от индекса = disawov
Если все ок, переходим дальше.
Статья в тему: Robots.txt — инструкция для SEO
3. Выпаршиваем сайт на внутренние ошибки
Часто, чтобы быстрее понять, что с сайтом, лучше проверить его внутри, на предмет ошибок и редиректов.
Внутренние редиректы в данном случае самое ключевое.
Для этого:
- открываем Screaming Frog SEO Spider
- ставим на скан сайт
- проверяем на наличие редиректов и ошибок после скана
Обращаем основное внимание:
- не выпадали основные теги
- левые внутренние редиректы
- протоколы на страницах
Особенно, если произошла расклейка страниц.
По факту, все что может повлиять на плохую индексацию сайта для Google.
Поэтому проходим по всем ошибкам в summary и пытаемся понять, нету ли внутренних багов.
Статья как никогда в тему: Как сделать технический аудит — пошаговое руководство
4. Google Analytics
С помощью Google Analytics очень очень быстро можно определить, какие страницы выпали в нужный период.
Чек лист:
- Выбираем нужную нам дату
- Выбираем сравнить с другим похожим отрезком времени
- Смотрим на страниц, которые больше всего просели
В таком случае быстро становиться понятно, по каким страницам сайт выпал и над чем стоит дальше работать.
В данном случае был пример, когда 3 июня выпал сайт SeoProfy. А именно:
- выпала главная страница
- и весь сайт перестал показываться по запросам
- даже по названию бренда
По факту это оказался глюк Гугл, но на самом деле не понятно. Так как технически все было нормально и ничего не менялось.
Но позже мы начали понимать, почему такое может случаться. Причина будет в пунктах далее.
Статья в тему: Как нас забанил Google. Но потом помиловал
5. Снимаем позиции по сайту
Позиции это наверное первое, после чего можно заметить, что трафик на сайт может сильно упасть.
У нас позиции по проектам в основном снимаются каждый день и можно оперативно видеть ситуацию по проекту.
Когда после проверки позиций видно такое:
То, можно посмотреть по нужным группам запросов, какие страницы просели и дальше детальней смотреть варианты.
Например:
Логично, если вылетают нужные запросы, трафик так же перестает поступать из поиска на сайт.
6. Проверяем индексацию страниц
В основном на резкое снижение трафика влияет 2 фактора:
- доступность
- индексация
Визуально:
Как следствие, нам быстрое нужно понять, все ли нормально с индексацией страниц.
Если страниц нет в индексе – по ним нет позиций, а значит и трафика.
Проверить индексацию можно:
- мы на автомате делаем через Site Tracker
- так же через Google Search Console
- либо другими доступными сервисами
Google Search Console:
Но, по такой картине мы ничего особо не увидим.
Что можно сделать, чтобы понять:
- спарсить весь сайт (тот же Frog или Aparser)
- спарсить индекса
- сравнить что есть и чего нет
Но как по мне, это пустая трата времени и лучше использовать сервис для отслеживания.
В итоге:
У нас на автомате стоит сделать уведомление, если индекс страниц увеличился или просел на 15-25%.
В обычной рутине, это хорошо помогает.
7. Проверяем работу сервера
Нужно убедиться в том, что:
- был нормальный uptime
- сервер не падал
К сожалению, если сервер упал и в это время на сайт пытался зайти Google Bot, то это явная причина, почему сайт может просесть.
Мы тщательно мониторим сайты что находяться в продвижении тем же Site Tracker, который проверяет доступность каждые 5 минут.
Можно использовать любой доступный инструмент, таких на рынке более чем хватает.
8. Проверяем DNS
На эту проблему мало кто обращает внимание, но она крайне важна.
Вот смотрите:
- может работать сервер
- но если dns от регистратора (даже если они платные)
- то они могут не работать
- и если они не работают, то не работает сайт
- даже если с вашим сервером все нормально
- как следствие Google Bot не может попасть на сайт
- что приводит к падению трафика
- так как из индекса выпали страницы (скорее всего)
Проверить можно с помощью сервисов как dig.ua и прочих ну или на автомате своим инструментом.
Так у нас пишется, когда что-то не так с dns:
Если сайт падал ранее по причине name серверов, то самый простой способ – это посмотреть историю если она пишется.
Так как скорее всего причину вы будете искать не сразу, а после того, как трафик уже упадет на сайте.
Но лучше, мониторить доступность, так как это важнее всего для любого проекта.
Вот пример, когда с сервером все в порядке, но упал dns, и по истории видно, что сайт не был доступен:
Как следствие, мы сменили на нормальные premium NS у другого регистратора и все стало стабильно.
9. Проверяем уникальность контента
Это очень распространенная причина, почему вылетает сайт. Особенно если он еще новый и не особо авторитетный.
А именно:
- скопировали контент на дорвеи
- скопировали контент на сателлиты
- на трастовые сайты вроде google sites и прочие
Как следствие, такое может повлиять на просадку сайта по позициям или вовсе вылет.
Чем проверить?
- Content Watch
- Content Yoda
- Copyscape
- Advego Plagiatus, Text RU
- Свой внутренний сервис
В целом без разницы, чем проверять, главное чтобы процент уникальности текстов был всегда нормальный >85%.
Хотя: Часто очень трастовые сайты не подвергаются такому. У нас есть ряд проектов у которых все стаскивают (копипастят) везде где только можно и специально и нет (ниша просто такая) да и сайты плотно в топе.
Что можно сделать, чтобы немного облегчить жизнь?
- Ставим DMCA protect
- Блокируем контент от парсеров
- Ставим premium copyscape
- Сами отслеживаем и оперативно реагируем
Вот инструкция:
10. Смотрим обратные ссылки
Если это Google, то ссылки там играют чуть ли не ключевую роль в ранжировании. Поэтому:
- Смотрим ссылочный профиль
- Особенно новые обратные ссылки
- Смотрим на предмет спама
Например так:
Так было с сайтом, который нагло зашел в ТОП 3 по ВЧ запросам в хорошем регионе.
Конкуренты со временем устали спамить, так как все ссылки добавлялись в Google Disawov Tool.
Но, если сайт новый или мало авторитетный, то такой спам может очень негативно повлиять на позиции и поисковый трафик.
Главное смотреть на свежие ссылки:
И сразу добавлять в Disawov Tool плохие. Они могут быть с разными анкорами, зачастую такими:
В любом случае, если вы видите, что ссылки плохие, то лучше сразу же не медля добавить их как плохие в консоли для вебмастеров Google.
11. Проверяем ссылки с PBN
Если вы используете ссылки с PBN для продвигаемого сайта, то первое на что нужно обратить внимание – это индексация самого PBN.
Если сателлит был деиндексирован, то сразу же нужно убрать с него ссылку на свой проект. Иначе, можно пострадать от этого.
Обычно, когда сателлиты выпадает из индекса, то его либо заподозрили Гугл, либо что-то с ним не так.
Из нашего опыта, убрав ссылку просадки особо не будет. А вот если это не сделать, то сайт может пострадать.
12. Проверяем процент отказов
Открываем Google Analytics. Выделяем органический трафик и смотрим процент отказов по ключевым страницам.
Влияет ли это негативно?
Однозначно да.
В ряде тематик конкуренты используют сервис по типу Userator по такой схеме:
- берут ВЧ запрос по которому ваш сайт в топе
- ставят цель зайти на него
- быстрое его покинуть и вернуться в выдачу по запросу
- далее зайти на другой сайт (скорее всего конкурента)
- там нормально походить
- и больше не возвращаться в выдачу
Как следствие, такой процент отказов может повлиять и главная задача с помощью Google Analytics попытаться понять, есть ли с этим проблемы.
Важно: Нужно постоянно работать над поведенческим, так как это отлично влияет на позиции и работать над тем, чтобы процент отказов был минимальным или постоянно снижался.
Вот, пример небольшого эксперимента:
Где:
- обновили дизайн
- добавили больше контента
- сделали его более читабельным, удобным, в тему
- переиндексировали
- и получили результат (пока не топ 1-3 именно по данному сайту, но скоро будет)
В заключение
В данной статье-руководстве мы рассмотрели 12 способов быстро понять, почему просел трафик на сайте из поисковых систем.
На самом деле способов и методов на порядок больше, но они могут занимать дольше времени на определение причины.
Я отталкивался только от слова быстро и чтобы я делал в первую очередь чтобы определить просадку трафика.
Хорошие статьи в продолжение:
— Как оценить трафик сайта — 8 способов определить посещаемость
— Мелкие фишки для роста SEO трафика
— Минус 98% трафика — наказание инициативы заказчика
А что вы думаете по этому поводу? Давайте обсудим в комментариях!