Апр
Мэтт Каттс попросил вебмастеров не закрывать для Googlebot страницы на Javascript и Ajax
В очередном обучающем видео от Google, опубликованном на этой неделе, главный инженер и руководитель команды Google по борьбе с поисковым спамом Мэтт Каттс (Matt Cutts) ответил на вопрос о том, насколько эффективно алгоритмы крупнейшего в мире поисковика умеют обрабатывать веб-страницы, построенные на Ajax и Javascript.
«Отвечая на ваш вопрос, сосредоточусь на вопросах распознавания Javascript: Google постоянно совершенствуется в данном аспекте. К примеру, если вы закроете объекты Javascript или CSS файлом robots.txt или директивой Disallow, то поисковый робот Google не сможет просканировать страницы.
Доступ к сканированию страниц, построенных на Javascript, позволяет Google не только совершенствоваться в обработке таких страниц, но и получать расширенные сведения о конкретной странице на сайте. Вот почему я бы порекомендовал вебмастерам проверить подобные элементы и страницы на наличие запретов для Googlebot сканировать Javascript, Ajax, CSS и подобные элементы. И, в случае обнаружения, убрать эти запреты», – разъяснил Мэтт Каттс.
Источник: www.searchengines.ru