30 марта 2012 года, в Конгресс Центре на Russel street (Лондон) состоялась одна из лучших в мире практических конференций - Link Love London’12. Организатором выступила компания Distilled, известная своими инновационными разработками в области SEO и интернет-маркетинга.

В рамках мероприятия прозвучал доклад Тома Энтони (Tom Anthony), SEO-консультанта, Distilled на тему «Инструменты и тактики линкостроения».

«В 1997 году была основана корпорация Google – с этого момента ссылки получили особую значимость в глобальной сети. Но продолжает ли Google столь же трепетно относиться к ссылкам или сегодня им придается меньше значимости?» – начал свое выступление докладчик.

Как известно, изначально все ссылки были равны, но с тех пор многое изменилось. Значимость ссылочного фактора ранжирования, как считается, неуклонно уменьшается. В последние два года 15% ранжирующих сигналов было перемещено из сферы ссылочного и отдано другим сферам. Однако, ссылочные факторы по-прежнему играют основополагающую роль в ранжировании и, в частности, текст анкора – по-прежнему мощный сигнал.

Ниже вы видите исследование авторитетного ресурса SEOMOZ от 2011 года, какие именно сигналы учитывает Google в ранжировании. Как видно из диаграммы, факторы, относящиеся к группе «Domain Level Link Authority Features» («Факторы авторитетности ссылок на домен») сравнимы в количественном измерении с факторами группы «Page Level Link Metrics» - («Свойства ссылок на страницу»).

«Давайте рассмотрим пример естественного и неестественного ссылочного распределения: в качестве примера сайта с естественной ссылочной массой возьмем distilled.net. Большинство доменов имеет авторитетность 30-40, согласно OSE – Open Site Explorer. Мы можем построить такой график, в принципе, для конкретной страницы, но в этом докладе я буду концентрироваться на показателях домена. Ниже мы видим распределение по авторитетности ссылок на домен distilled.net. Как видно, пик графика приходится на ссылки с показателем авторитетности 30 (данные Open Site Explorer)», – продолжил докладчик.

«Ниже следует пример ссылочного распределения для сайта нашего нового клиента, в сравнении с ссылочными профилями его ближайших конкурентов из ТОП-10 выдачи Google. Этот график построен на нормализованных данных, т.е. вместо общего количества ссылающихся доменов, мы взяли процентное соотношение ссылающихся доменов (ось Х) разных уровней авторитетности (ось Y) по сайту клиента и его конкурентов. Нормализация проведена потому, что сравнительное количество ссылок на каждый домен нам ничего, по большому счету, не скажет. Нам нужно знать, естественен ли ссылочный профиль нашего клиента. И вот, что мы видим – синяя линия на графике – наш клиент! Есть над чем работать», – разъяснил Том.

(Тем же, у кого остались вопросы по этой части доклада, предлагается ознакомиться со статьей Тома Энтони «Link Profile Tool to Discover Paid Links or Other Anomalous Linking Activity»).

График, приведенный ниже, демонстрирует ссылочный профиль клиента после проведенной компанией Distilled работы по выравниванию ссылочной массы.

Как известно, Google часто «наказывает» за неестественный прирост ссылочной массы, понижая позиции сайтов или вовсе выкидывая их из выдачи. Более того, зачастую в подобных ситуациях гигант поиска не стремится разобраться, из какого источника поступают ссылки – основным сигналом для него является резко возросшее численное количество ссылок.

Достаточно вспомнить запуск алгоритма Panda, в результате которого позиции потеряло множество качественных сайтов. Это та жертва, которую пришлось принести Google в его борьбе за чистоту поисковой выдачи.

От каких же SEO-стратегий придется отказаться оптимизаторам в 2012 году? Отвечая на этот вопрос, докладчик привел цитату из официального блога Google: «Мы пересмотрели способ оценки ссылок, которым пользовались все последние годы».

Комментируя приведенную цитату, Том отметил существенные изменения, произошедшие в глобальной сети за последние несколько месяцев: множество крупных и мелких бирж ссылок (таких как Build My Rank) пропали из выдачи. Кроме того, согласно последним исследованиям, Google перестал передавать вес более, чем ста тысячам различных ссылок.

Так от чего же придется отказаться оптимизаторам в текущем году? Чтобы ответить на этот вопрос необходимо привести слова главного инженера Google Мэтта Каттса (Matt Cutts): «Конечно, мы не можем сделать подробного анонса, но на протяжении последних нескольких месяцев, наша команда тщательно работала над тем, чтобы не допускать попадания в выдачу сайтов с неестественно большими объемами ключевых слов на страницах, а также ресурсы с огромным количеством ссылок. Команда из нескольких инженеров уже работает над проблемой «неестественных ссылок» и в ближайшие недели и месяцы нововведение заработает».

Какие же тенденции наметились в глобальной сети сегодня?

  • Google оценивает качество каждой отдельной ссылки.
  • Все большее значение придается семантической разметке поставляемого поисковику контента, в частности, средством идентификации принадлежности контента и защиты от воровства может выступить авторская разметка rel=»author»
  • Google рассматривает Google+ не как соцсеть, а как средство дополнительной идентификации ресурса, компании, пользователя.
  • Google ревностно защищает от постороннего вторжения свою территорию поиска и активно атакует сторонние соцмедиа.
  • «Статистика для автора» (Author Stats) появилась в Webmaster Tools (ее цель – отображать количество показов, кликов по ссылкам материала, который связан с профилем владельца ресурса).

Итак, что же остается делать оптимизаторам, чтобы Google снова полюбил ссылки?

  • Прежде всего, убедиться в правильности авторской разметки своего документа – речь идет о  rel=»author» – сегодня этот микроформат играет очень важную роль для западных поисковых систем.
  • Стараться получать ссылки только от авторитетных или доверенных авторов. В настоящее время важно не количество, а качество ссылок.
  • Разработать собственную стратегию получения ссылочной массы, подходящую именно для вашего ресурса (отметим, что сегодня Google научился учитывать тематику сайтов, а это значит, что и ссылки необходимо получать из источников, близких по теме).

Завершая свой доклад, Том Энтони посоветовал слушателям использовать разработанный им «краулер авторов» – инструмент, при помощи которого владелец ресурса мог бы выявлять, ссылки от каких пользователей, авторов и блоггеров необходимы для продвижения ресурса именно ему. С этой целью полезно проанализировать уже имеющиеся входящие ссылки, а затем найти авторитетных в своей тематике авторов и попытаться получить ссылки с их ресурсов:

Также г-н Энтони порекомендовал не переставать собирать различные данные о пользователях, обладающих особым авторитетом в глобальной сети, постоянно анализировать их и искать дополнительные пути привлечения качественных ссылок:

В заключение докладчик посоветовал слушателям становиться авторитетными авторами самим и налаживать контакты с еще более авторитетными гуру своей отрасли в глобальной сети.

(Тем, у кого остались вопросы по второй части доклада, рекомендуем обратиться к статье Тома Энтони «How Authorship (and Google+) Will Change Linkbuilding»).

Слушатели отметили динамичность и четкость изложения материала докладчиком и весьма высоко оценили свежие идеи, прозвучавшие в выступлении.

 

Источник: www.searchengines.ru

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Одноклассники
Опубликовать в Яндекс
Опубликовать в Мой Мир

Рекомендуем ещё