Интервью с Bruce Clay «Микро сайт является плохим, если ссылки идут только на вас»

Интервью с Bruce Clay «Микро сайт является плохим, если ссылки идут только на вас»

SeoProfy
24 июня, 2016

В начале месяца мне удалось побывать на семинаре Bruce Clay в Милане. Где пользуясь случаем я взял интервью у Брюса.

Немного о Брюсе:

Владелец одноименной компании Bruce Clay Inc, а так же один из самых толковых seo специалистов планеты. Он начал заниматься поисковым продвижением на 2 года раньше, чем был запущен поисковик Google. Его офис находится в калифорнии и он широко известен в нише SEO в США.

После прохождения его 2-х дневного семинара я был приятно удивлен той информации, которой он делиться.

Интервью с Bruce Clay «Микро сайт является плохим, если ссылки идут только на вас»

Переходим к интервью:

Я слушал семинар 2 дня и очень восхищен информацией, которую вы предоставили. Она очень хорошо структурирована. Я знаю, что вы не хотите чтобы кто-то покупал ссылки для того чтобы спамить, но с вашей точки зрения какая лучшая тактика линкбилдинга в 2016?

Каждый раз, когда выходит очередная статья с названием 10 лучших способов линкбилдерства, я смотрю на них, читаю, и понимаю что они повторяют то, что уже давно всем известно.

В них просто сказано, «не спамте». Что на самом деле нужно знать, так это то, что все ссылки нужно заработать.

Одно из направлений в каком мы думаем пойдет Google очень помогает нам убедится в этом. Например, мы думаем что Google будет автоматически игнорировать плохие ссылки в будущем.

Мы думаем, что вот у нас будут ссылки, которые ведут на наш сайт и про которые вы будете думать что они хорошие, но гугл будет считать что они плохие и будет их игнорировать. И вы не сможете определить какие именно из ссылок будут игнорироваться.

Поэтому, лучший способ обойти это — получить несколько ссылок которые Google точно не будет игнорировать. И, обычно, эти ссылки получаются от коллег, людей работающих в этом же направлении или партнеров.

И лучший способ сделать так чтобы эти люди ссылались на ваш сайт — это стать экспертом в определенном направлении и предложить что-то, на что эти люди хотели бы ссылаться.

Да, потому что все доверяют экспертам. Но нужно же создавать хороший контент, не так ли? Возьмем к примеру адвоката или стоматолога. У них нет времени создавать такой контент. Как они могут получить такие линки?

Да, бывают еще даже хуже ситуации, они все выдают себя экспертами в данной области и не факт что тот, с кем вы имеете дело это 100% эксперт.

В большинстве случаев вы можете провести с ними собеседование и определить чего хотят именно «они». Например, если бы я пошел к стоматологу и сказал «есть ли что-то в мире что вы бы хотели получить и что помогло бы вашему бизнесу?».

Если такого нет, то возможно то, что мы сделаем это будет небольшой старт-ап проект. Мы создаем то, что они хотели бы получить и потом мы говорим всем что это у них. Я сделал это, создал онлайн инструмент, который люди хотели бы получить, дал это им, разгласил эту информацию, и через 6 недель у меня было 18000 обратных ссылок.

И все они от общества. Поэтому, да, это всё вполне реально и не очень сложно. Самая сложная часть этого — это понять что именно «создавать».

Я не знаю, например, что может хотеть стоматолог. Только он сам может это знать. Но, также может быть что нам на самом деле надо что-то наподобие видео или инфографики, или например что-то, что в той или иной мере является промежутком времени какого-то очень длительного процесса с объяснениями в на ходу.

Это может быть кейс. Это может быть много таких вещей, которых опасаются люди. А стоматологи – это как раз те, кого боятся люди)))

Я думаю, что это является проблемой многих вебсайтов, но не обязательно каждой ниши. Например, если я запускаю новый вебсайт, я хочу знать как защититься от негативного SEO.

То есть, я просто его запускаю и в некоторых нишах конкуренты, не знаю зачем они это делают, они спамят твой сайт не качественными обратными ссылками и ты, собственно, оказываешься нигде. Что вы об этом думаете?

Со временем всё больше и больше людей обращаются к негативному SEO. Иногда легче навредить конкуренту чем исправить собственный сайт.

Люди, чьи сайты закрыли из-за серьезного спама и на которых были наложены большие штрафы, могут восстановить свои сайты, и при этом они знают какие у них были плохие ссылки. Поэтому, если Google не снимет с них свои штрафы чтобы они могли восстановить свои позиции, то у них просто на просто не будет никакого трафика.

Поэтому, иногда чтобы получить эти позиции, нужно волноваться не за то чтобы подниматься выше в топ, а за то чтобы опускать позиции своих конкурентов.

И вот так исторически и появилось негативное seo. Конкуренты перенаправляют на вас плохую страницу сайта, они покупают ссылки за вас и делают так, чтобы казалось что это вы их покупаете с целью навлечь на вас санкции Гугла.

Такое вполне возможно и с этим мало что можно сделать. Нужно следить за новыми линками, новым трафиком, но разобраться с этим всем можете только вы.

Bruce Clay interviewed by Victor Karpenko

Как вы думаете, disavow files может помочь, если, например, я запускаю вебсайт и конкуренты заспамили его и, например, я был в топ 50 или может топ 30 по основным ключам а потом опустился до 80 или даже ушел за топ 100. Если я буду использовать Disavow Tools, исходя из вашего опыта, может ли это помочь или нет?

Ну, вы можете наверное увидеть какие из ваших внешних ссылок были дезавуированы другими людьми. Это, возможно, поможет вам определить ваши худшие внешние ссылки чтобы вам было легче дезавуировать их в свою очередь.

С помощью вашего инструмента, да?

Да. disavowfiles.com

Если я нашел дроп домен, хороший домен с тематическими ссылками. Восстановил его и поставил с него на продвигаемый сайт ссылку. Думаете ли вы что это хорошая идея делать нишевые сайты и потом ставить ссылки с него, или все таки плохо?

В основном, микросайт такого рода будет считаться плохим если ссылки с него будут идти только на вас. Если сайт самодостаточный и он линкует к всевозможным сайтам этой индустрии, а не только к вам, то, может, всё будет ок.

Но, если он линкует только к вам, Google начнет интерпретировать это в таком ключе как будто это всё сделано только для поисковиков и будет штрафовать вас и микросайт.

Так что вопрос не в том, что я создал сайт и линкую к себе, а в том, что я создал сайт и линкую ТОЛЬКО к себе, в последнем случае сайт плохой. То есть, если я буду линковать к лидерам индустрии, то всё нормально.

Следующий вопрос тоже касается нового вебсайта. Например, у меня есть нишевый блог о чем то там и я делаю всё, например поисковое продвижение, пишу хороший контент и всё нормально, но рейтинговые сайты крадут мой контент и не ставят ссылки на источник, то есть на меня. Что я могу сделать в таком случае? А, и Google думает что эти сайты и есть оригинальные создатели этого контента и, как следствие, я теряю трафик.

Вам на самом деле нужно объяснить весь этот процесс Гуглу. Вам нужно создать страницу и указать Google когда вы её опубликовывали. Затем, вам нужно отправить её Google, подождать неделю чтобы гугл обработал это и понял, что вы — первый кто ее опубликовал.

А потом если через день- другой какой то сайт её публикует, то по крайней мере вы сможете сказать «смотрите, они крадут мой контент».

Есть безусловно возможность решить вопрос через авторское право, так как тот факт, что кто-то крадет ваш контент — неприемлемо.

Да, я знаю. Но понимаете, мы просто хотим защитить наших клиентов и наши проекты, ничего больше.

Это правильно. Расскажу вам забавную историю. У нас был сайт где происходило то же самое. Каждую ночь страницы сайта «копировались» конкурентом. И это был целый сайт, не просто 1 статья.

То есть во вторник мы загружаем несколько страниц и меняем что-то, а ночью конкурент заходит и крадет всю информацию. В среду и конкурент и мы, то есть оба сайта, оказываемся на равных.

Что мы сделали, мы просто прописали код чтобы когда конкурент заходил на сайт ночью и запрашивал доступ к нему, вместо того чтобы дать доступ к нашему сайту, конкурента перекидывало на порно сайт. И, следующим утром, конкурент увидел у себя на сайте просто кучу голых женщин.

Я думаю, что мораль истории в том что они просто перестали красть контент потому что каждый раз когда ты это делаешь, то получаешь не тот результат который ожидал увидеть.

То есть это плохая идея. Тем не менее, я обычно не подталкиваю людей к таким методам. Я просто хочу сказать что можно сделать что-то с теми, кто запрашивает доступ на страницу и заблокировать их. Если вы знаете их айпи адрес, то вы можете заблокировать их на сервере. Если вы знаете время когда они обычно заходят, то вы тоже можете что-то предпринять. Если у них свой интерфейс или свой user agent для скриптов, то определите его.

Bruce Clay interviewed by Victor Karpenko

Как вы относитесь в поведенческим факторам в Google?

Я не думаю что поведение пользователей имеет какое то влияние кроме показателя отказов. Гугл знает, что кто-то зашел в поисковик, кликнули на нужный результат в поиске, перешел на вашу страницу, пробыл там 3 секунды и ушел.

Поэтому, им будет понятно что никто не задерживается на вашем контенте и таким образом, следующий раз когда кто-то зайдет на ваш сайт, то вас передвинут на 1 позицию вниз. Но одна эта позиция может быть 30% вашего трафика. Поэтому да, Google действительно знает как это делать. Помогает ли это вам увеличивать ваши позиции? Я так не думаю.

Не думаете ли вы что CTR может помочь передвинуться с 9ого, например, на 1ое место, если у вас он был лучше чем у конкурентов?

CTR можно подделать.

Да, можно.

Это спам область своего рода. Если бы CTR был бы основным показателем, то его бы 100% спамили. Даже если это не основной показатель, то он должен быть настолько незначительным, чтобы никто не хотел его накручивать. Для накрутки требуется очень много усилий.

Если я выпускаю продукт для США и собираюсь делать то же самое для Австралии а контент на английском, то что мне делать с этим контентом? Стоит ли мне просто скопировать его?

Да

Да?

Поместите его в подкаталог или дайте им доступ к самому каталогу. Что сделал я. У меня есть сайт bruceclay.com И также у меня есть bruceclay.com/eu или bruceclay.com/au или в таком же стиле на английском языке.

Я захожу в консоль Google и ввожу это bruceclay.com/au и говорю Гуглу, что это Австралия. Как только вы это сделаете, у гула больше не будет проблем с фильтрацией дублирующего контента.

То-есть нет необходимости переписывать текст?

Нет

То есть если это, например, большая компания занимающееся it аутсорсингом клиенты которой находятся, к примеру, в Америке, и потом они решают делать это из Великобритании или Австралии то они просто создают подкаталог в Google Webmaster и просто выбирают регион и это всё? Никаких дублей?

Именно

Вчера я слышал как вы рассказывали о локальных каталогах, например Google Places, думаете ли вы, что локальные нишевые каталоги, например локальные сайты поиска стоматологов, исчезнут если Google всё это запустит?

Нет

Нет? Вы думаете что они будут всё равно получать трафик от поиска?

Если они локальные, если они гиперлокальные, и очень сконцентрированы на конкретной тематике, то они могут всё равно получать какой-то трафик. Я бы хотел чтобы они были не просто каталогами, а чтобы они потенциально имели дополнительную информацию о наших продуктах или о локальных вещах которые не доступны где либо еще.

3 основные вещи которые будут ключевыми по SEO в ближайшем будущем? Например, поиск голосом

Да, поиск голосом существует. Поиск на переносных устройствах тоже не отстает. Я думаю, что если они будут сживаться то мы увидим перемены во всех этих областях.

Но нормальное seo, хотя мы должны быть внимательны ко всем этим факторам, но всё же я не думаю что нормальное seo поменяется в корне.

Мы всё равно будем улучшать контент, мы так же будем улучшать основную структуру страницы. Мы будем работать над скоростью и над тем чтобы все это гармонично работало. Так что я не думаю что что-то вскоре поменяется.

Спасибо большое за интервью!

PS: Данное интервью записывалось на видео, оно выйдет немного позже на англоязычном SeoProfy. Пока выкладываем лишь фрагмент про то, чего стоит ожидать в ближайшем будущем от Google:

Понравилась статья? Получай свежие статьи первым по e-mail

Оцените статью:
совсем плохоплохонормальнохорошокласс (15 оценок, средняя: 4,73 из 5)
Загрузка...
  • Минаков Александр

    По возможности делайте больше таких постов (интервью с западными гуру) Google Webmater — поправьте

    • поправил, спс
      по возможности будем)

      • Mykola Lukashuk

        или на Search Console)

        • оч часто меняются названия) по старинке gwt)

  • UAWEB

    Отличное интервью! Не совсем понял здесь: «Вам на самом деле нужно объяснить весь этот процесс Гуглу. Вам нужно создать страницу и указать Google когда вы её опубликовывали. » — датировать страницу?

    • rel author) все таки в коде его можно применять + первым проиндексить любыми способами

      • UAWEB

        ок 🙂

  • здесь речь про код

  • ))
    добавляете папку как отдельный сайт, и устанавливаете нужный регион

    • Alex Tanchik

      А можно тогда уточнить. Основной сайт я оставляю и говорю ему, что он без региона, попутно добавляю папки, указывая каждой свой регион?
      И сайт мап оставить только у главного сайта?

      • 1. это для подходит для гео запросов
        2. нужно чтобы полюбому основной сайт в гугле имел регион
        3. добавляя папку как отдельный сайт сразу ей присваивается регион = ждем и профит

        • Alex Tanchik

          Ясно, спасибо, попробую. У меня гугл сам решил, что сайт принадлежит штатам и они пошли очень хорошо, а вот все остальные регионы, типа австралии или юар, вообще не двигаются.

          • да, для .com доменов и не только он по умолчанию ставит штаты

    • Simplecreator

      а как быть с картой сайта sitemap.xml — делать их отдельными под каждую папку или вставлять единую индексную версию на все регионы?

  • Перевод очень тяжел, но всё равно спасибо за интересное интервью.

  • Anna G

    Удалили мой вопрос(

  • Вить, а его семинары только в офлайне можно послушать? Или запись тоже можно купить?