Как сообщает на страницах блога Google для вебмастеров ведущий инженер корпорации Мэтт Каттс (Matt Cutts), гигант поиска внес несколько улучшений в алгоритм, отвечающий за соотношение количества рекламных объявлений к объему контента на странице сайта.

Отметим, что Google уже неоднократно предупреждал вебмастеров о том, что негативно относится к ресурсам, на страницах которых пользователю трудно отыскать фактическое содержание. В этой связи сайты, заметно перегруженные рекламой (особенно если реклама располагается в верхней части страницы) и испытывающие явный недостаток контента, будут попадать под действие фильтров Google. Однако и тут есть свои тонкости.

«Мы понимаем, что размещение рекламы в верхней части сайта характерно для многих веб-ресурсов, поскольку именно такие объявления заметны пользователю и являются основным источником дохода для издателей. Вот почему фильтр не будет понижать в ранжировании те сайты, которые публикуют рекламу «в разумных пределах». Основной удар придется на сайты, изобилующие рекламой, где пользователь с трудом находит оригинальный контент. Не пройдет и распространенный прием, когда оригинальный контент, размещенный в видимой верхней части сайта, настойчиво направляет пользователя ниже к огромным блокам рекламных объявлений», – пояснил Мэтт Катс.

Ожидается, что изменение алгоритма затронет не более 1% сайтов по всему миру. Однако, если вебмастер заметит, что его сайт был пессимизирован в выдаче, ему стоит еще раз проверить страницы ресурса на соотношение рекламы к оригинальному содержанию. Кроме того, владельцу сайта необходимо убедиться в том, что пользователь может с легкостью обнаружить на ресурсе оригинальный конетнт, а не отыскивать его в куче информации коммерческого характера. Проверить свою страницу можно при помощи Browser Size и других инструментов от Google.

Если же вебмастер решит обновить разметку страницы, алгоритм автоматически учтет все изменения, и повторно просканирует ресурс. Насколько быстро произойдет переиндексация зависит от ряда факторов. В том числе, от количества страниц на ресурсе, а также от того насколько технически грамотно выполнен сайт. В среднем, сканирование роботом Googlebot сайта с обновленной разметкой занимает несколько недель.

Интересную иллюстрацию к посту Google представило издание SearchEngineLand. Именно такие напоминания специалисты Google недавно выслали вебмастерам по e-mail.

 

Источник: www.searchengines.ru

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Одноклассники
Опубликовать в Яндекс
Опубликовать в Мой Мир

Рекомендуем ещё