Июл
Как приручить «Пингвина»: результаты SEO-эксперимента
Запущенный 24 апреля 2012 года новый анти-спам алгоритм от Google – Пингвин, до сих пор заставляет многих оптимизаторов волноваться и догадываться о способах его избежания санкций и нейтрализации их последствий.
28 мая известный SEO-блогер, эксперт-аналитик и главный редактор Optimization.com.ua Сергей Кокшаров (devaka.ru) объявил о глобальном эксперименте, суть которого – понять, как влияет ссылочный переспам на ранжирование сайта, и определить, какой процент точных вхождений является приемлемым для внешних ссылок.
Все желающие, могли присылать сайты, пострадавшие от нового алгоритма, выигравшие и те, которые остались без изменений. Всего в эксперименте приняло участие 149 сайтов.
Все представленные сайты были проверены вручную на попадание именно под «Пингвина»
Основные результаты эксперимента:
Первое, что было замечено – люди добавляли сайты, совсем не разобравшись, наложен ли был на них Пингвин или что-то другое. По многим отчетам по трафику было видно, что проблемы с сайтом начались задолго до апреля или же уже в мае.
Второе, участники плохо применяли выбранные методы избавления от фильтров. Люди выбирали, что они будут ставить 301 редирект или убирать часть ссылок, добавлять новых, но по факту делали это не все.
В итоге, по словам Сергея, всем кто работал с ссылками (удалял, разбавлял, добавлял), из-под Пингвина выйти не удалось. Вышли лишь те, кто перенес сайт на новый домен и сделал 301-ый редирект (но пока неизвестно, как долго будет работать этот метод, ведь он не совсем белый).
Если говорить о закономерностях, то для контента их выявить не удалось. Под Пингвин попадали сайты и с рекламой и без, со страницей контактов и без неё, с большим и малым seo-текстом на главной странице с разными тегами и длиной тайтлов.
Единственное, что не измерялось в контенте – это наличие дублей и нетематических ссылок, а они как раз являются одним из сигналов для Пингвина, как выяснилось после анализа отчетов по ряду сайтов.
А вот для ссылок получилось найти общие тенденции:
Чаще под фильтр попадали сайты, имеющие на первом месте в анкор-листе (по используемости) прямые вхождения ключей (средняя величина 58% прямых вхождений), минимум nofollow-ссылок на свой сайт (меньше 14% от всей массы), минимум безанкорных ссылок. Если сравнивать две группы сайтов на графиках, то ясно видно, что любит Пингвин.
Выход из-под Пингвина:
С помощью манипуляции с анкорами ссылок выйти из-под фильтра не удалось никому. Возможно, 2 месяца недостаточно для снятия этого фильтра на автомате.
Из тех методов, которые были использованы для вывода сайтов из-под фильтра, помогли лишь 301-ые постраничные редиректы на другой домен (с тем же именем, но в другой доменной зоне). Все, кто использовал редирект, через время были склеены и заняли в выдаче прежние позиции.
После изучения материалов западных экспертов и обзора отчетов по экспериментальным сайтам можно сделать выводы, что выйти из-под Пингвина белыми методами можно лишь улучшая комплексно свой сайт:
- удалять дубли и сапо-ссылки (а также постовые),
- удалять ссылки на сателлиты,
- сквозняки на свой сайт закрывать в nofollow,
- убирать все ссылки с прямым вхождением (если продвигаете ВЧ-запросы, они все равно у вас уже не учитываются)
- и, возможно, добавлять новых, желательно по которым идёт целевой трафик.
Такие выводы сделал Сергей. Издание SEOnews поинтересовалось, что думают о результатах эксперимент другие SEO-эксперты:
Сергей Людкевич, начальник отдела аналитики WebEffector:
Результаты эксперимента получились довольно интересными, особенно снятие фильтра по 301-му редиректу. Любопытно, что якобы найденная закономерность в ссылочном, манипуляциями со ссылками не вылечилась. А вот та же ссылочная масса на новом домене, получается, штраф не спровоцировала. Хотя на самом деле информация по деталям экпсперимента (например, срокам) довольно скудная и не позволяет делать далеко идущих выводов.
Наша компания в данном эксперименте не участвовала. Но на отдельных сайтах мы сами отмечали симптомы Пингвина, лечили с переменным успехом сокращением контента и закрытием исходящих анкорных ссылок атрибутом nofollow согласно рекомендациям Google.
Наталия Неелова, руководитель отдела поискового продвижения Ingate:
В этом эксперименте, на мой взгляд очень полезная информация о том, как отделить влияние одного фильтра / алгоритма от другого, какие анкоры наиболее уязвимы, какую схему определения дублей использовать.
К сожалению, как пишет Сергей не все ответственно подошли к работе над снятием фильтра, что конечно, же отрицательно повлияло на качество результата. Также, лично мне, не хватило информации об исследовании площадок доноров (лишь в выводах).
Участие в данном эксперименте мы не принимали, но есть свои наблюдения. Например, помимо выводов Сергея, было замечено, что сайты, которые давно продвигались каталожными ссылками, а потом не разбавлялись хорошими, резко просели в Google и было получено в вебмастере Google соответствующее письмо. Для снятия ограничения ведем активную и практически ювелирную работу с ссылочной массой, пока есть точечные результаты.
Елена Бурдюгова, руководитель отдела маркетинга Optimism.ru:
В целом данный эксперимент нам кажется интересным. Хотелось бы пожелать Сергею, чтобы в будущем участники относились более ответственно к исследованиям. Что касается сайтов-доноров, то, на мой взгляд, важно при подборе площадок анализировать отношение числа их собственных доноров к акцепторам.
Также необходимо обращать внимание на то, как монетизируется сайт-донор. Если там установлены сразу несколько партнёрских программ (AdWords, «Бегун» и прочие), которые работают без ручной модерации (как «Яндекс.Директ», например), то, вероятнее всего, такая донорская площадка будет не самой удачной. Нужно также учитывать трафик донора и географическую зону простановки ссылки.
Что касается наших сайтов, то компания «Оптимизм.ру» в работе над продвижением проекта всесторонне развивает сайты клиента, что исключает вероятность попадания под фильтр.
Подробные результаты исследования можно увидеть на блоге Сергея Кокшарова.
Источник: seonews.ru