В очередном обучающем видео от Google, опубликованном на этой неделе, главный инженер и руководитель команды Google по борьбе с поисковым спамом Мэтт Каттс (Matt Cutts) ответил на вопрос о том, насколько эффективно алгоритмы крупнейшего в мире поисковика умеют обрабатывать веб-страницы, построенные на Ajax и Javascript.

«Отвечая на ваш вопрос, сосредоточусь на вопросах распознавания Javascript: Google постоянно совершенствуется в данном аспекте. К примеру, если вы закроете объекты Javascript или CSS файлом robots.txt или директивой Disallow, то поисковый робот Google не сможет просканировать страницы.

Доступ к сканированию страниц, построенных на Javascript, позволяет Google не только совершенствоваться в обработке таких страниц, но и получать расширенные сведения о конкретной странице на сайте. Вот почему я бы порекомендовал вебмастерам проверить подобные элементы и страницы на наличие запретов для Googlebot сканировать Javascript, Ajax, CSS и подобные элементы. И, в случае обнаружения, убрать эти запреты», – разъяснил Мэтт Каттс.

 

Источникwww.searchengines.ru

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Одноклассники
Опубликовать в Яндекс
Опубликовать в Мой Мир

Рекомендуем ещё