Авг
Matt Cutts об апдейтах Google
В очередном видео Мэт Катс рассказывает об апдейтах Google, которые так любят обсуждать на всех оптимизаторских форумах.
Неофициальный блог о Гугле все подробно записал со слов Мэта. Я решил сделать перевод, потому что текст показался мне весьма интересным. Перевод свободный.
Всем привет, рад снова вас видеть! Сегодня я решил поговорить об апдейтах наших датацентров, о том, чего ждать от Гугла в течение следующих нескольких недель и т.п.
Вообще у нас постоянно идет апдейт, практически каждый день, иногда действительно каждый день. Довольно большая часть нашего индекса обновляется каждый день по мере того как мы обходим известными нам сайты.
Кроме того у нас есть алгоритмы и «выбросы данных», которые запускаются реже. Например, выбросы данных были 27 июня, 27 июля, а затем 17 августа. Стоит заметить, что это не вчера началось, а все происходит примерно так уже около полутора лет.
Bigdaddy – это был апргрейд инфраструктуры нашего программного обеспечения и закончился он еще в феврале. Мы хорошенько освежили краулеров и механизмы индексации ??нтернета. Сделано это было за несколько месяцев и все работает довольно хорошо.
Было также полное обновление механизма индексации дополнительных результатов (supplemental results). Это произошло пару месяцев спустя после Bigdaddy и было завершено в течение месяцва-двух. Инфраструктура индексации дополнительных результатов отличается от основной индексации, она была полностью переписана.
Еще немного слов о дополнительных результатах. Мы обнаружили некоторые маленькие фичи типа слова-исключения, тег noindex и т.п. Дополнительные результаты были связаны с основным индексом таким образом, что вы часто могли видеть при просмотре проиндексированных страниц сайта глюки типа пропущенных страниц или слишком большого количества страниц. Был как миниму один инцидент, когда очень многие думали, что некий спамер смог загнать в индекс сайт с 5 миллиардами страниц. Конечно, когда я капнул глубже, то оказалось, что страниц там всего 150 000 на самом крупном из доменов этого спамера. Так вот все эти «site:» результаты каким-то образом сложились и получилось действительно большое число.
(dimok: тут Мэт имхо немного лукавит. Объяснение какое-то невнятное. Особенно учитывая, что я вот прямо сейчас вижу для нескольких из своих сайтов о музыке по 10-16 миллионов страниц на как минимум 8 дата центрах… Стоит заметить, что посещаемость от сего глюка не растет.)
Мы сделали еще одно важно обновление инфраструктуры нашего ПО, которое прежде всего улучшает качество, но так же улучшает некоторые аспекты индексации. Это побочный эффект в хорошем смысле. Эксперименты ведутся на некоторых дата центрах и мы надеемся, что к концу лета сможем запустить это на всех дата центрах. Но дедлайна для этого процесса нет и поэтому мы будем все тестить пока это будет необходимо.
Следить за дата центрами становится все сложнее. У нас очень много направлений работы одновременно. На последнем собрании обсуждались десятки работ. И это только те, что направлены на улучшение качества поиска, не на интерфейс и все такое. Если вы пользуетесь локальным поиском (например, в ? усском сегменте), то скорее всего вы не заметити разницы. Но по большому счету у нас постоянно вносятся изменения и вы можете видеть различные данные на разных дата центрах.
Еще один повод не заморачиваться с дата центрами – это их количество. Если ты супер-пупер сеошник, то знаешь «72.2.14.любое-число». Этот адрес обычно принадлежит какому-либо дата центру, но не всегда так. Иногда мы что-то меняем в аппаратной инфраструктуре, тогда тот же IP адрес может вести на совершенно иной дата центр.
Так что, я советую не сходить с ума по данным разных дата центров, а направить свои усилия на улучше качества контента своего сайта, искать хорошие ресурсы, на которых очень к месту будет ссылка на ваш сайт, но ее почему-то до сих пор нет и т.д.
Будьте уверены, мы всегда работаем над улучшением нашей инфраструтуры, и вы никогда не сможете гарантировать себе или своим клиентам позиции по конкретному поисковому запросу. Потому что, если мы выясним, что можем улучшеть качество результатов за счет смены алгоритмов, изменения данных или инфраструктуры, то мы это неприменно сделаем! Хорошие оптимизаторы в моем понимании это те, кто может адаптироваться к нашим изменениям. Если вы будете постоянно совершенствовать данный навык, то вам не придется встать в 3 часа утра и пережевывать на всех форумах по сотому разу «аааа, что у вас видно на таком-то дата центра, все поменялось!?» и вообще забивать себе голову подобными вещами.
Источник: blog.dimok.ru