Автор статьи Томас Шмитц (Thomas Schmitz),
владелец консалтингового агентства Schmitz Marketing,
занимающегося интернет-маркетингом.

За последние 12 месяцев (с ноября 2011 года по ноябрь 2012) произошли существенные изменения Google, которые сказались на работе SEO-специалистов.

Репутация и траст

Самыми часто используемыми словами для вебмастеров стали репутация и траст. Здесь речь идет о достоверности содержания сайта, дизайне, внешних ссылках, а не об управлении репутацией с точки зрения SEO. Конечно, Google, как и другие поисковые системы, говорил о качестве сайтов и наказывал за плохое SEO с самого первого дня своей работы, но именно сейчас он стал как никогда лучше идентифицировать различные нарушения. У Google появились зубы.

Google научился говорить

Если раньше Google не давал никакой подробной информации вебмастеру о том, что именно считается спамом на его сайте, то теперь ситуация изменилась. С апреля 2012 года поисковик расширил спектр типов сообщений и предупреждений, которые он отправляет при помощи инструмента вебмастера. Уже за январь и февраль 2012 года Google отправил более 700 000 сообщений при помощи инструментов для вебмастеров.

Penguin

Google представил Penguin 24 апреля 2012 года. Ниже иллюстрация, как Pinguin выглядит в аналитике. По мнению Google, все сайты, отфильтрованные новым алгоритмом, должны приложить немалые усилия, чтобы ликвидировать все искусственные ссылки, независимо от их возраста. В октябре поисковик представил инструмент дезавуирования ссылок, чтобы помочь вебмастерам в решении этой задачи, но он фактически больше сообщает поисковику о ссылках, чем помогает быстро отключить их.

Даже после использования инструмента дезавуирования ссылок, Google не спешит восстанавливать позиции сайта. Google сначала дождется полной переиндексации всех указанных вебмастером урлов, и лишь потом будет предпринимать какие-то действия. Могут пройти недели или месяцы между посещениями поискового робота качественных или некачественных страниц.

Стоит отметить, что иногда Google игнорирует спамные ссылки. Сайт может иметь такие ссылки, но подпадает под Penguin он только в том случае, когда превышает определенный порог. При этом Penguin не защищает сайт от ручных санкций, даже к сайтам, которые уже были отфильтрованы алгоритмом, могут быть применены и другие санкции.

Panda

Google очень любит Panda, алгоритм, который наказывает вебмастеров за низкое качество ресурса. С 18 ноября 2011 года Google Panda обновлялся 13 раз. Алгоритм наказывает сайты, понижая их в результатах выдачи. Чтобы справиться с ним необходимо заменить некачественные тексты на хорошо написанные, а также дифференцировать дублирующие друг друга или очень близкие по содержанию страницы. Например, на сайтах компаний с большим количеством офисов, создающих страницу под каждый офис, которая отличается от других лишь контактами и имеет очень похожий с другими страницами офисов текст.

Награда качества

Часто кажется, что Google тратит все свое время на определение ресурсов низкого качества, и поэтому особенно приятно заметить изменения повышающие качество поисковых алгоритмов в июне-июле 2012 года.

Webspam

Еще в апреле 2012 года Мэтт Каттс (Matt Cutts) заявил: «В ближайшие несколько дней мы запустим новые изменения алгоритмов, направленные на борьбу со спамом. Изменения будут снижать рейтинг сайтов, которые, по нашему мнению, нарушают требования Google к качеству ресурсов. Эти сайты не выглядят как очевидный спам на первый взгляд, но экспертиза позволяет сделать выводы, что сайты используют методы черного SEO и пытаются манипулировать поисковой выдачей». Изменения должны были повлиять на 3,1% запросов.

Переоптимизация

В марте текущего года Мэтт Каттс поведал о предстоящих обновлениях, призванных бороться с переоптимизацией: «Мы пытаемся сделать GoogleBot умнее, мы ищем тех, кто злоупотребляет оптимизацией, используя слишком много ключевиков на странице или много ссылок, но мы пойдем значительно дальше, чем вы ожидаете», – отметил он.

SEO-сообщество не знает точно, что имеет ввиду Google под переоптимизацией, но есть некоторые предположения. Например, слишком большое количество ключевых слов.

Уже в ноябре Мэтт Каттс говорил о сквозных ссылках и рассказывал, как Google воспринимает это и как учитывает ключевые слова. Возможно, сквозные ссылки и являются частью алгоритма переоптимизации. Ниже приведена иллюстрация общего примера: один случай хорошо, два лучше, а три или четыре – это уже слишком много, потом каждое дополнение становится менее важным, пока вы не достигаете переоптимизации. В какой -то момент вас начинают подозревать в оптимизации.

В связи с тем, что не известно необходимое количество упоминаний ключевых слов и ссылок для эффективного продвижения в Google, для успешного продвижения нужно быть просто естественным и не пытаться перехитрить Google. Примечательно, что за ссылки на ваш блог или дочерние компании Google не будет штрафовать ваш сайт. Но даже если переоптимизация не будет замечена алгоритмами Google, сайт может настигнуть ручная санкция в любой момент.

Точное соответствие домена

В сентябре 2012 года Google объявил, что будет бороться с точным соответствием доменных имен поисковым запросам. Понятно,что это не связано с Panda или Penguin, Google будет бороться с сайтами, которые хорошо ранжируются благодаря соответствию имени домена ключевым словам, а не содержанию или внешним ссылкам.

Много рекламы в верхней части страницы

Сайты, которые содержат много статической рекламы в верхней части страницы и заставляют читателей прокручивать страницу вниз, чтобы увидеть основное содержание сайта, могут быть наказаны поисковиком. Это не окажет влияние на большую выборку сайтов, Google отмечает, что изменения зацепят лишь 1% ресурсов.

Ссылки с инфографик и гостевые ссылки блогов

Точной информации нет, но еще в июле Мэтт Каттс упоминал, что сайты, злоупотребляющие ссылками с инфографик могут быть наказаны. Речь идет о спамных ссылках с инфографик, которые фактически обманывают пользователей.

В октябре 2012 года Мэтт Каттс сделал подобное предупреждения для блогов и гостевых блоггеров (вероятно, речь идет о спамных ссылках в блогах). Блоги дают замечательные результаты в плане продвижения, но черный блоггинг может привести к печальным последствиям.

Пиратский апдейт

Это наказание в отношении ресурсов, использующих слишком много нарушающего DMCA контента и запросов (контент, нарушающий авторские права).

Google Caffeine

Инфраструктура Caffeine была развернута пару лет назад. В том году мы получили сильно поджаренный вкус Caffeine благодаря Panda. А в этом году алгоритмы сквозных ссылок и чрезмерной рекламы усилили Caffeine в сочетании с улучшенной индексацией, более мощной базой данных поисковика и повышением мощностей поисковой машины.

Свежесть

Год назад Google выпустил апдейт Свежесть (Freshness), затрагивающий около 35% результатов поиска. Теперь алгоритм был усовершенствован. Алгоритм чаще обновляет и представляет более свежую информацию о недавних событиях, самых обсуждаемых темах.

Индексация AJAX и JavaScript

Google теперь может индексировать AJAX и JavaScript. С одной стороны это позволяет читать динамически генерируемые тексты, с другой – ликвидирует возможность скрыть какую-то информацию или ссылки от поисковика при помощи скриптов.

Индексация закрытых ссылок

Исследователями была замечена индексация закрытых страниц и ссылок

Автоматическая канонизация урлов

Под канонизацией здесь понимается процесс выбора наиболее подходящего URL (из нескольких разных URL одной и той же страницы) для оптимизации страницы в поисковых системах. Google заметил, что будет определять главный урл самостоятельно, тем не менее, канонизация урлов все еще доступна для вебмастров.

Припаркованные домены

В прошлом году в декабре Google добавил классификацию припаркованных доменов, исключив их из результатов. Улучшена была возможность обнаружения дублированного содержания домена.

Разнообразие доменов в результатах

В сентябре Google представил обновление, которое призвано увеличить число доменов в результатах поиска. Иногда в результатах Google преобладают страницы одного и того же сайта, обновление направлено на решение этой проблемы.

Теги и постоянство выдачи

В завершении автор хотел бы остановиться на двух тенденциях, которые продолжают развиваться, но становятся все более противоречивыми. Такие как теги и постоянство (неподвижность) SERP

Google учитывает теги в результатах поиска и имеет смысл использовать их для оптимизации, здесь речь идет и о машиночитаемых тегах, и о HTML элементах и атрибутах. Использование машиночитаемой разметки как Schema.org помогают поисковикам воспринимать, классифицировать и отображать информацию. А качественное отображение сайта в результатах поисках позволяет заметно увеличить трафик на сайт.

Что касается неподвижности SERP, Google внес некоторые изменения за последний год. Например, ликвидирована левая боковая панель, исключена возможность поиска неоплачиваемых товаров. Появилось больше запросов, по которым показываются локальные результаты, что хорошо для одних предприятий, но очень плохо для других. По некоторым запросам показывается лишь семь результатов органической выдачи, а по каким-то девять. В результатах может быть несколько ссылок на один и тот же сайт. И никто не отменял рекламы. Автор уверен, что Google хочет упростить результаты поиска для среднего пользователя, максимизировав при этом собственные возможности для получения дохода от рекламы. К тому же Google хочет персонализировать результаты поиска с упором на местные компании и друзей пользователя поиска.

Автор статьи в собственных результатах поиска по Google видит семь местных результатов и три с персональными рекомендациями. Ниже расположены еще три персонализированных результата органической выдачи. Будущее поиска Google, вероятно, персонализированные и локальные результаты.

 

Источник: www.searchengines.ru

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Одноклассники
Опубликовать в Яндекс
Опубликовать в Мой Мир

Рекомендуем ещё