Мар
Чистим ссылочный профиль от «плохих» ссылок
Споры на тему плохих и хороших ссылок, а точнее того, что поисковые системы считают таковыми, идут довольно давно. При этом кто-то говорит, что качество площадки можно оценить по основным метрикам (тИЦ, PR и т.д.), кто-то использует хитрые методики, вычисляя статический вес ссылок и оценивая то, сколько статического веса донор способен передать акцептору. Но, несмотря на разные подходы, цель у всех методов общая – найти среди кучи ссылок только те, которые будут считаться поисковиками качественными, и, следовательно, принесут максимальную пользу с точки зрения SEO. Но получается это далеко не у всех компаний. Начнем, пожалуй, с последнего громкого случая наказания поисковой системой за использование неестественных ссылок.
Показательный расстрел Interflora.co.uk
Очень показателен недавний случай с сайтом крупного британского интернет магазина цветов – interflora.co.uk.
В 20-х числах февраля Google наложил санкции за некорректную, по его мнению, стратегию наращивания ссылочной массы. В результате данных санкций сайт, ранее державшийся в ТОП 1-3 по таким высокочастотным ключевым словам как [flowers], [florist], [flower delivery], [flowers online] и по многим другим, был удален из выдачи. Нетрудно догадаться, что из-за подобных действий со стороны Google компании был нанесен существенный финансовый урон.
Если проанализировать стратегию, которой придерживались оптимизаторы Interflora, то можно выявить несколько типов использованных ссылок: • ссылки из тематических статей, размещенные на новостных ресурсах и других сайтах; • постовые в тематических статьях; • ссылки с социальных сетей и персональных блогов.
Схемы получения ссылок в случае с разными типами были примерно идентичны: пользователь писал о том, что якобы получил от Interflora бесплатный букет, статьи обычно сопровождались фотографиями и изобиловали большим количеством ссылок на сайт интернет-магазина. Ничего не напоминает, правда?
Случай с Interflora, на текущий момент, наиболее громкий показательный расстрел за использование некорректных методик наращивания ссылочной массы в 2013 году. Ранее в 2012 году Google так же применял санкции к ряду крупных сайтов, среди которых были такие гиганты как: JC Penney, Forbes и Overstock.
По состоянию на 4 марта сайт компании Interflora вернулся в TOP 10 Google по ряду ВЧ запросов: [flowers] – 9 позиция, [flower delivery] – 8 позиция, [flowers delivered] – 9 позиция, [roses] – 10 позиция. Стоит отметить, что отдел продвижения данного магазина сразу же после падения позиций начал рассылать письма вебмастерам с просьбой снять размещенные ранее материалы со своих сайтов. Из чего можно сделать вывод о том, что оптимизаторы изначально предполагали подобный вариант развития событий и были к нему готовы. Другой вопрос заключается в том, готов ли был сам магазин к такому повороту событий.
Ссылки всякие нужны, ссылки всякие важны
Возможно ли, как в случае с Interflora или любым другим сайтом, избежать столь негативных последствий? Можно с уверенностью сказать, что да, возможно. Но для этого необходимо использовать проверенные временем инструменты и методы.
Существует несколько подходов при отборе ссылок:
• Ручной отбор, при котором выживают только сильнейшие доноры – это хороший и проверенный временем метод для тех, кто все делает сам и имеет свое представление о том, что такое хорошие ссылки и чем они отличаются от плохих. По сути, он подойдет для профессиональных оптимизаторов, которые со ссылочными биржами «на ты» и не одну собаку съели на продвижении сайтов. Главное преимущество этого метода заключается в том, что каждый оптимизатор может сам составить для себя фильтры, т.е. критерии того, что, по его мнению, является качественным сайтом. Основным же минусом данного подхода является тот факт, что ручной отбор ссылок занимает уйму времени, при этом не оставляя его на другие работы, связанные, к примеру, с внутренней оптимизацией. Другими словами, можно сколь угодно хорошо подбирать ссылки на биржах, но рано или поздно появится проблема времени и «потолка» производительности и эффективности.
• Автоматизированный подбор, закупка и управление ссылочной массой – данный подход позволяет совместить в себе методы ручного отбора и автоматизации, что на выходе дает возможность быстро и качественно подбирать ссылочных доноров. Более подробно плюсы и минусы данного метода можно рассмотреть на примере сервиса Rookee.
В понимании разных пользователей разделение на плохие и хорошие ссылки очень условно. При этом оптимизаторы зачастую забывают о том, что не только внешним видом красив донор, а статическим весом, который он может передать акцептору. Поэтому качественный потоковый отбор доноров довольно сложен и наилучшим образом реализуется методом тестовых простановок и многоуровневой фильтрации.
Вышеупомянутый сервис использует этот метод в white-листах для отбора наиболее работоспособных ссылок, куда включаются не только тестовые простановки, но и элементы машинного обучения. Как показывает практика, при использовании многоуровневых white-листов, качество ссылок возрастает от уровня к уровню. При этом сам сервис позволяет не только настраивать пользовательские фильтры, а, по сути, делать выборки рабочих ссылок из глобального white-листа по своим собственным каскадам настроек.
Есть возможность сконфигурировать автозакупку так, чтобы в дальнейшем минимизировать необходимость постоянного контроля за купленными ссылками.
Что касается типов используемых ссылок, то их всего два: ссылки с посуточной оплатой и «вечные» ссылки. Естественно, сейчас существует много оптимизаторов, пропагандирующих использование только лишь вечных ссылок. Но, как известно, на вкус и цвет все фломастеры разные, и наиболее вкусное блюдо получается только тогда, когда смешиваешь в необходимых пропорциях оба ингредиента.
Как быть в случае, если, к примеру, ссылок куплен вагон и маленькая тележка, а поисковая система применила санкции? Выход есть, но он не так прост, как хотелось бы – придется анализировать ссылочную массу! Существует ряд интересных инструментов для анализа бэклинков.
Инструменты для анализа входящей ссылочной массы
1. Solomono – отечественный сервис поиска и анализа обратных ссылок.
Основные преимущества: дает возможность бесплатно выгрузить данные о 1000 обратных ссылок для сайта, отображает информацию об уровне вложенности страницы и анкорах ссылок. Помимо этого Solomono позволяет выгрузить анкор-лист своего проекта или конкурентов. Но для анализа качества обратных ссылок наиболее интересна метрика iGood, которая позволяет быстро оценить качество ссылающегося домена. iGood – всегда две цифры: первая показывает сумму din доноров домена, где din – количество доноров у домена, вторая – сумма dout всех доноров домена, где dout – количество доменов-получателей.
2. Ahrefs – еще один отечественный сервис, но в отличие от Solomono ориентированный, в первую очередь, на англоязычный интернет.
Из плюсов – большое количество полезных инструментов, актуальная база обратных ссылок и такие полезные метрики, как Ahrefs Rank и Domain Rank, которые позволяют оценить качество ссылок и ссылающихся доменов. Для анализа потребуется именно Domain Rank.
3. Open Site Explorer – сервис от компании SEOMoz, всецело ориентирован на западных оптимизаторов, как и Solomono c Ahrefs предоставляет детальную информацию по обратным ссылкам на сайты.
В арсенале сервиса имеется куча различных инструментов для анализа, но наиболее интересные метрики для использования при анализе – Page Authority и Domain Authority.
Методы анализа и выявления «плохих» доноров
А теперь самое интересное – методы анализа ссылочной массы. Начнем с того, в каких случаях анализ ссылочной массы может быть полезен:
• Анализ бэклинков конкурентов. Ни для кого не секрет, что о конкурентах по поисковой выдаче хочется знать как можно больше. Это же касается и того, как конкуренты работают над внешней оптимизацией (ссылочной массой). Используя существующие инструменты, можно узнать детальную информацию о донорах, анкор-листе конкурентов и использовать эту информацию для повышения эффективности продвижения своих сайтов.
• Поиск и сбор наилучших доноров/общих доноров. Используя инструменты анализа беэклинков можно проанализировать конкурентов из ТОП 10, найти общих доноров и выбрать наиболее авторитетных среди них, которых впоследствии и использовать у себя в white-листах.
• Выход из под фильтров. Когда в конце апреля 2012 года Google выпустил новый фильтр под грозным названием “Пингвин”, не все оптимизаторы, получившие пенальти, знали, что надо делать. Многие сайты так и не смогли до сих пор восстановиться после пессимизации. Позднее Google выпустил новый инструмент, призванный помочь оптимизаторам и вебмастерам отказаться от “плохих” ссылок, поспособствовавших наложению санкций, но здесь возникал другой вопрос: какие ссылки можно считать “плохими”, а какие нет. Для решения именно этого вопроса пригодятся описанные ранее сервисы и метрики.
Что же делать, если сайт угодил под санкции за неестественные ссылки?
Первое что приходит в голову, – найти и снять те ссылки, которые послужили причиной пессимизации сайта. И если на западе Google является поисковиком №1, и вебмастера оптимизируют сайты в основном только под данную поисковую систему, то для Рунета, во-первых, Google не царь, и во-вторых, съем всех ссылок может негативно сказаться на позициях в Яндексе (разумеется, если сайт таковые имел).
Именно поэтому для вебмастеров и оптимизаторов из России на помощь приходит инструмент, в котором можно отказаться от неугодных ссылок и при этом физически сохранить ссылки на площадках, чтобы не потерять заветные позиции в Яндексе.
16 октября 2012 г. Google представил новый инструмент для своей панели вебмастеров – Disavow links. Инструмент позволяет вебмастерам и оптимизаторам отказываться от спамных, т.е. «плохих» в понимании поисковой системы Google ссылок. Инструмент, в первую очередь, полезен тем специалистам, чьи сайты так и не восстановились после Google «Пингвина» из-за невозможности, в ряде случаев, снять «плохие» ссылки на свои сайты.
Выглядит он так:
Сам сервис расположен по адресу https://www.google.com/webmasters/tools/disavow-links-main, а для отказа от ненужных ссылок потребуется выбрать интересующий домен и загрузить список «плохих» ссылок в GWT. Формат файла для импорта плохих ссылок таков: domain:site.org
Но прежде чем отказываться от ссылок, нужно найти те, которые могли послужить сигналом для наложения санкций, а сделать мы это сможем только после анализа своей ссылочной массы.
Анализ ссылочной массы на примере ссылочного профиля habrahabr.ru:
Шаг №1: собираем все ссылки на свой сайт. Сделать это можно разными способами: можно выгрузить из биржи, можно получить из сервисов описанных выше, но самый простой способ – сделать выгрузку ссылок из панели Google Webmaster Tools (мы же про Google говорим).
Шаг №2: делаем выгрузку из Ahrefs, при этом интересует не столько сама выгрузка, сколько метрика Ahrefs Domain Rank, которая позволяет оценить качество ссылающегося домена исходя из качества его обратных ссылок.
Шаг №3: делаем выгрузку по доменам из сервиса Solomono и добавляем значение iGood для доменов в сводную таблицу.
Шаг №4: делаем выгрузку значений Domain Authority из Open Site Explorer и добавляем полученные значения в таблицу.
Шаг №5: для получившейся таблицы настраиваем фильтр в Excel так, чтобы на выходе получить список наиболее «плохих» ссылок. Фильтр каждый сможет настроить, исходя из своих критериев качества, в рамках данной статьи используем следующие значения (Ahrefs Domain Rank < 100, iGood < 0.2, SEOMoz Domain Authority < 45).
Для наглядности была использована выгрузка обратных ссылок для habrahabr.ru, но, разумеется, не всей ссылочной массы, а лишь небольшой её части. Значения в таблице получены из описанных выше сервисов и являются реальными. Это позволяет получить более наглядное представление о том, как осуществлять фильтрацию плохих ссылок.
После нехитрых манипуляций в Excel получаем список потенциально «плохих» ссылок:
Шаг №6: далее отбираем только те домены, у которых все три значения столбцов (Ahrefs Domain Rank, Solomono iGood, SEOMoz Domain Authority) оказались меньше указанных в фильтре значений. В данном случае это домены под номерами: 13, 16, 18, 20, 21, 24, 25, 27.
Стоит оговориться, что в примере было решено считать плохими те сайты, чьи параметры по всем трем сервисам оказались ниже указанных в фильтре значений. Это сделано в целях минимизации попадания в список «плохих ссылок» работоспособных доноров.
После того как список «плохих» ссылок составлен, осталось совершить только одно финальное действие на пути к возвращению в ТОП – загрузить полученный список в инструмент Disavow links.
После того, как неугодные ссылки были отправлены в Google, остается только ждать, процесс отказа и восстановления позиций может занять от нескольких недель до нескольких месяцев. На практике сайты, которым приходилось отказываться от ссылок через инструмент Disavow links, начинали восстанавливать свои позиции уже со второй-третьей недели.
Работа на опережение
Напоследок, окинув взором весь проделанный объем работ, трудно не согласиться, что желания подобным образом анализировать ссылочную массу пусть и не на постоянной основе – нет. Гораздо лучше сразу покупать рабочие ссылки, за которые потом не будет стыдно. Ну а чтобы это сделать, надо иметь голову на плечах, прямые руки и холодное сердце. Ведь только в этом случае сайт сможет успешно штурмовать ТОПы поисковых систем.
Автор: Александр Штейн
Источник: www.searchengines.ru