С 17 по 18 мая 2012 года, в The Hive (Манчестер) прошла ежегодная аналитическая SEO и SMM конференция – SAScon. Организаторами мероприятия по традиции выступили компании Manual Link Building, Manchester Digital, SEMPO.

В рамках первого дня конференции прошла секция «Как освободиться от козней Панды и Пингвина» (Breaking Free of Panda/ Penguin). На самые злободневные вопросы аудитории ответили ведущие эксперты в области SEO: Питер Янг (Peter Young), глава отдела регионального SEO в компании Mediacom, и Нил Уокер (Neil Walker), главный технический директор, Just Search.

Первым докладчиком стал Питер Янг. Свое выступление он начал с перечисления важнейших вех для всех оптимизаторов – ключевых обновлений и запусков поисковых алгоритмов Google.

После этого Питер поделился с аудиторией секретом четкого разграничения двух различных алгоритмов Google «Панды» и «Пингвина». «Прежде всего, важно уяснить, что алгоритм «Панда» призван бороться с поисковым спамом, в то время как «Пингвин»  «заточен» исключительно на борьбу с неестественными (т.е. коммерческими) исходящими ссылками, переполнения страниц сайтов ключевыми словами, а также призван искоренять абсолютно любые попытки манипулирования выдачей. Таким образом, все, что относится веб-спаму – фильтрует алгоритм Panda, а все аспекты, связанные с «переоптимизацией» ресурса, клоакингом, накачкой ключевиками (по сути, черным SEO) – отлавливает Penguin. И эта иерархия у Google довольно жёсткая», – начал свое выступление докладчик.

И все же, по мнению Питера Янга, уведомления о «неестественных ссылках», разосланные Google вебмастерам в начале апреля 2012 года – не имеют отношения к алгоритму Penguin, ведь он был запущен 24 апреля 2012 года. Кроме того, среди 700 тысяч предупреждений, отправленных Google владельцам сайтов, были объявления, касающиеся не только подобных ссылок: вебмастера также получали уведомления о взломанных сайтах, о перенаправлениях на сомнительные ресурсы, платных ссылках, приобретенных на биржах контента и т.п. «Все это больше похоже на борьбу с веб-спамом, а значит, – это прерогатива алгоритма Panda», – заявил докладчик.

«Как бы там ни было, вебмастерам и оптимизатором необходимо тщательно следить за своим ресурсом, чтобы не лишиться позиций в индексе Google», – продолжил г-н Янг. «Вот почему очень важно понимать, что Google анализирует ссылки иначе, чем это делаете на своем сайте вы, – обратился он к аудитории. – Чтобы убедиться в этом, я посоветовал бы вам опробовать новый инструмент Citation flow от Majestic SEO, позволяющий визуально отслеживать качество ссылок, размещенных на вашем ресурсе. Каждой ссылке присваивается определенная трастовая ценность (от 0 до 100) в зависимости степени авторитетности ссылающегося ресурса в соответствии с классификатором MozRank. После этого метрика выстраивает специальный график, наглядно демонстрирующий «ссылочный профиль» вашего ресурса. Инструмент будет особенно полезен в сочетании с метрикой Trust flow, позволяющей определять степень доверия к ссылающемуся на вас ресурсу, учитывая всю совокупность его взаимосвязей, в том числе и с соцмедиа.

Не менее полезно отслеживать все взлеты и падения ваших конкурентов, отмечая ключевые вехи в их «жизни» – выстроив соответствующие взаимосвязи и закономерности вы сможете не только понять, когда произошел очередной всплеск понижений сайтов в индексе Google, но и определить, что конкретно явилось причиной падения ресурса, похожего на ваш. Судите сами: у вас одна и та же тематика, целевая аудитория, а значит могу быть схожими как ваши модели SEO-продвижения, так и площадки, используемые для продвижения сайта. Одинаковой может быть и ссылочная база. «Последите за этим, отыщите закономерности, подумайте, что не понравилось Google. Ваш аналитический мозг и критический взгляд на вещи – самая чудесная метрика. Ведь чужие ошибки видны куда лучше, чем свои», – подвел промежуточный итог Питер Янг.

«Не относитесь халатно и к уведомлениям Google, адресованным вам и вашему ресурсу. Получив предупреждение – обязательно «погоняйте» сайт по метрикам, обсудите произошедшее с коллегами, возможно, они испытали на себе аналогичное «внимание поисковика». Не сделанная работа над ошибками может повлечь отнюдь не понижение в результатах, а бан. Помните об этом и не пытайтесь игнорировать предупреждения», – предостерег слушателей глава отдела регионального SEO в компании Mediacom.

В заключение, докладчик привел краткую классификацию ссылок, которые, по его мнению «не нравятся» Google:

Избыточное наполнение страницы ссылками существенно понижает ее ценность для Google. Если вам пришло оповещение о переполнении ваших страниц ссылками – постарайтесь вычленить ссылки на приоритетные для вас ресурсы с высоким PageRank и избавиться от всего ненужного. В любом случае, обязательно проведите хотя бы количественное сокращение ссылок на страницах.

  • Постарайтесь ограничиться всего несколькими наиболее релевантными ключевыми словами и одной ключевой фразой на странице.
  • Избегайте так называемых «непотов» (nepotistic links), которые ведут на сторонние ресурсы с тематикой несоответствующей вашему сайту. Google классифицирует их не просто как «нетематические», но и как подвид поискового спама, в обязательном порядке применяя против них непот-фильтр. Основная цель – избежать засорения глобальной сети бесполезными ресурсами.
  • Не сотрудничайте с биржами ссылок. Даже, если вы очень изобретательны и избирательны в этом, поверьте, Google найдет, как вас урезонить.
  • Важно избегать резких перепадов (скачков и провалов) активности аудитории – Google может рассматривать это как накрутку поведенческих факторов. Если, конечно не выявит нестабильности работы вашего ресурса, что тоже не очень хорошо для поискового продвижения сайта.
  • Знайте своих соседей – ссылайтесь только на проверенные и тематически связанные ресурсы. Хорошие сайты должны «дружить» только с такими же хорошими ресурсами.

Продолжил секцию Нил Уокер, главный технический директор компании Just Search. В самом начале выступления он попросил последовательно поднять руки тех, чьи сайты пострадали от запуска алгоритма: 1. Panda, 2. Penguin, 3. Получил уведомления о наличии на ресурсе сомнительных ссылок. В результате голосования выяснилось, что наибольшее число владельцев сайтов пострадало от запуска алгоритма Penguin. Однако Нил посоветовал не расслабляться и специалистам, получившим уведомления в Инструментах Google для веб-мастеров о наличии на их сайтах сомнительных ссылок. «По сути, вы также пострадали от запуска Пингвина. Если вы не примете меры – ужасная кара еще может постигнуть вас, – пошутил докладчик. – Обязательно выясните, что не нравится Google именно на вашем сайте тщательно проанализировав структуру ссылок при помощи инструментов и аналитики Google, и обязательно перепроверив другими инструментами, к примеру, используя разработки от Majestic SEO», – посоветовал он. В подтверждении он продемонстрировал структуры входящих ссылок двух взаимосвязанных веб-сайтов, один из которых, по мнению Google был переполнении ключевиками, коммерческими текстами и анкорными ссылками.

Другой же ресурс обменивался с первым сайтом ссылками «по договоренности». Любопытно, что по информации, поступившей к г-ну Уокеру, оба сайта получили уведомления от Google о наличии некачественных ссылок. При этом от запуска нового алгоритма пострадал лишь первый сайт, в то время, как второй ресурс остался на прежних позициях. Используя инструменты визуализации от Majestic SEO, Нил показал аудитории, что истинная причина понижения сайта в результатах выдачи Google и заключалась в обилии некачественных ссылок. В то время, как в ссылочной массе второго сходного по тематике ресурса наблюдалось менее 2% нежелательных ссылок.

В качестве дополнительного доказательства сказанному, Нил Уокер привел следующую статистику, составленную, исходя из анализа статистики 304 англоязычных сайтов различной тематики:

Комментируя данный слайд своей презентации, г-н Уокер пояснил:

  • 60% западных сайтов не испытали существенного негативного влияния алгоритма на их ранжирование в выдаче.

Однако из этого числа ресурсов:

  • 35% были понижены по определённым ключевым словам. При этом, по остальным запросам позиции сайта в выдаче остались теми же;
  • 13% ресурсов были понижены абсолютно по всем запросам;
  • 14% сайтов претерпели незначительные понижения позиций по всем ключевым запросам.

При попытке классификации алгоритмов по формальным признакам, г-н Уокер получил следующую картину:

Завершая свое выступление Нил Уокер кратко подытожил все вышеизложенное:

  • Сегодня общая для всего веба тенденция сводится к брендированию как таковому. Старайтесь быть как можно более brand-friendly – при создании ссылки постарайтесь включать в текст анкора название бренда. Старайтесь также получать ссылки от ресурсов-брендов, релевантных вашей тематике. Google это любит.
  • Не забывайте использовать Rel=Author и другие мета-тэги для указания авторства контента. Создавайте расширенные сниппеты. Пусть Google видит, что вы действительно работаете. Оговоримся заранее, что именно расширенные сниппеты и связь контента с профилем автора приобретут особенную важность в концепции семантического поиска Knowledge Graph, которую интернет-гигант готовится активно развивать и продвигать в ближайшее время. Пока у вас есть отличный шанс получить приоритет у Google, разметив свой оригинальный контент. Google стремится стать поисковой системой знаний, семантическая разметка поможет ему в этом, а вы получите бенефит.
  • Кстати о контенте: далеко не весь контент можно отнести к хорошему. Постарайтесь наполнить свой ресурс оригинальным содержанием, ну или, хотя бы, копируя/цитируя источник, заменяйте отдельные фразы, а, главное, не дублируйте заголовки.
  • Разнообразьте анкорные тексты – все сайты, пониженные алгоритмами Google не отличались разнообразием анкорных текстов.
  • Перестаньте покупать ужасные ссылки. Совсем скоро продажа ссылок, в том числе, и коммерческий блоггинг изживет себя.
  • Раскрутите свой сайт в соцмедиа – сделайте его настоящим брендом. Однако не относитесь к подобному продвижению, как к «тупому выбиванию ссылок» – разработайте уникальную стратегию, которая сделает вас заметнее, будет интересна пользователям, позволит упрочить позиции вашего ресурса в соцмедиа. «Это не только эффективно – это еще и интересно с точки зрения реализации!», – прокомментировал данный пункт Питер Янг.

В ходе сессии вопросов-ответов аудитория была настолько оживлена, что буквально «засыпала» докладчиков вопросами:

Вопрос: Недавно мой сайт понизили в результатах выдачи без объяснения причин. Думаю, что это связано с претензиями к качеству отдельных страниц. На что я должен обратить внимание в первую очередь, и как не ошибиться в диагностике проблемы?

Питер Янг: Это может быть связано со спецификой подбора ключевых слов. Если бы вас наказали за ссылки – это было бы не понижение, а исключение из выдачи. Используйте NetPeak Checker, чтобы проверить ваш сайт сразу по множеству параметров (аналог MozRank). Это действительно полезный инструмент.

Вопрос: Нужно ли бросаться удалять ссылки, если сайт был понижен/забанен в ходе последних обновлений алгоритмов Google?

Нил Уокер : Тут все упирается в «степень запущенности» вашего сайта: одним ресурсам нужно срочно вычищать все несвязанные с тематикой ссылки, а также ссылки на «сомнительные» ресурсы (если таковых слишком много). Однако вовсе не обязательно удалять их все. Бездумная глобальная очистка от ссылок может также негативно повлиять на ресурс. Будьте осторожны – не удаляйте сразу слишком много ссылок – это неестественно с точки зрения алгоритмов Google. Попробуйте сначала удалить самые нежелательные ссылки и посмотрите, что будет. Где-то через месяц повторите процедуру и обязательно следите за результатом.

Вопрос: Нужно ли подавать заявку на переиндексацию ресурса, если я получил предупреждение от Google через Webmaster Tools о плохих ссылках?

Питер Янг: Пьер Фар (Pierre Farr) из Google ответил бы вам «да». Но я знаю тех, кто просто работал над ссылочной массой, не уведомляя Google, и им это сходило с рук. В свою очередь, Нил Уокер заявил, что он вообще является противником излишних уведомлений Google: «Зачем же разоблачать себя и рассказывать Google о том, какие сети некачественных ссылок процветаю т на вашем сайте!» – заявил он.

Вопрос: Мой сайт пострадал от запуска алгоритма Penguin из-за того, что был переполнен ключевиками. Могу ли я вернуть его позиции в выдаче?

Питер Янг : Если вас сильно понизили, то скорее всего причина здесь не только в «набивании» страниц сайта ключевиками – скорее всего, здесь есть и другие причины (к примеру, ссылки на «сомнительные ресурсы»). Устраните все возможные причины и, убедившись, что инцидент исчерпан, подавайте заявку на повторную переиндексацию Google. Все еще можно исправить.

Вопрос: Как представителям агентства лучше рассказать своим клиентам о том, что их сайты получили предупреждения от Google?

Нил Уокер: Прозрачность и открытость – вот ключевые аспекты взаимодействия с клиентами. Расскажите клиентам подробности того, на чем заострил ваше Google и начинайте вместе работать над проблемой.

Вопрос: А если сайт пострадал от апдейта алгоритма Panda, и вы выполнили все требования Google, сколько времени ждать переиндексации?

Питер Янг: Тут сроки могут сильно варьироваться. Были случаи, когда по одним запросам сайты восстанавливались очень быстро – по другим же довольно длительно. Конкретных сроков назвать не могу, возможно три недели, месяц и дольше…

Вопрос: А если я накуплю самых лучших ссылок, какой анкорный текст вы посоветуете использовать?

Нил Уокер: Название бренда. Ну или комбинацию название бренда + тщательно подобранные ключевые слова.

 

Источникwww.searchengines.ru

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Одноклассники
Опубликовать в Яндекс
Опубликовать в Мой Мир

Рекомендуем ещё