Я думаю, нет смысла рассказывать, кто такие поисковые роботы и для чего они нужны. Скажу только, что частое посещение поисковыми роботами ваших сайтов является залогом хорошего целевого трафика с поисковых систем.

После того, как робот первый раз посетил ваш сайт и нашел там интересное для себя, то он вернется снова. Интересным для него, в первую очередь, является уникальный и полезный контент. Во время следующего визита робот смотрит изменения на сайте с момента последнего посещения и оценивает изменения на сайте. Если изменения есть и значительны, робот вернется на сайт снова через меньший промежуток времени. Если есть хорошая тенденция обновления вашего сайта, и сроки обновления достаточно небольшие (например, я в блоге пишу почти каждый день), то поисковый робот будет навещать вас настолько же часто, насколько часто вы обновляете свой сайт. Это если на пальцах.

Характерным примером часто обновляемых сайтов является сервис LiveJournal.com, на котором поисковые роботы просто живут. Поэтому для блогов советуют делать кросспостинг, чтобы ускорить индексацию страниц самого блога. Другим примером таких сайтов являются социальные закладки, которые большинство оптимизаторов использует для ускорения индексации.

Ну, а теперь постараюсь перечислить все известные мне способы «прикормки» поисковых роботов, чтобы каждый раз им приятно было приходить на ваш сайт и находить что-то новое.

1. Регулярное обновление/добавление контента, чем чаще, тем лучше. Собственно говоря, за новым контентом поисковые роботы и приходят.

2. Пинг поисковых систем при обновлении контента – характерно для блогов. При публикации нового поста происходит пинг (сообщение) поисковым системам о том, что на данном блоге появился новый контент и его желательно проиндексировать. Сервисы пинга, которые я использую.

3. Использование технологии RSS для передачи Feed с обновлениями вашего сайта на RSS-агрегаторы (feedburner.com) и RSS-каталоги (неплохая база RSS каталогов от Kareg’a). Для блогов полезным будет добавление RSS в сервисы поиска по блогам blogsearch.google.com и blogs.yandex.ru.

4. Создание карты sitemap.xml для удобства индексации поисковым роботом. Об этом говорил Джон Позаджидес в интервью моему блогу. Правильно приготовленная карта сайта для поискового робота является вкусной и полезной пищей.

5. Постинг в социальные закладки, с которых поисковые роботы переходят на ваш сайт. О том, чем лучше прогонять по закладкам я сравнивал в посте Bposter и Sapient Submitter.

6. Кросспостинг в блог-сервисы. Последнее время про этот способ высказываются различные мнения, как положительные, так и отрицательные. Но как способ прикормки роботов остается актуальным.

7. Создание на страницах сайта блоков с постоянно обновляемым текстом. Есть предположение, что текстовый блок с постоянно обновляющимся контентом будет очень «вкусным» для поискового робота, и у него будет больше стимула посещать ваш сайт чаще. Реализация данного способа для блога мне видится в создании блоков с последними комментариями и последними сообщениями с Twitter. Повторюсь, это всего лишь предположение, основанное на практике. Если практикой оно будет доказано, я с удовольствием расскажу об этом в блоге.

8. Комментирование других блогов со ссылкой на свой блог, как ни странно, это по-прежнему работает. Каждый новый комментарий – это, по сути дела, обновление контента. В известных и раскрученных блогах, где поисковые роботы бывают очень часто, поэтому оставив в комментарии ссылку на свой блог вы тем самым сможете привлечь поисковых роботов с другого блога.

Если можете предложить еще какие-либо «вкусности» для поисковых роботов, пишите в комментарии, с удовольствием добавлю со ссылкой на ваш блог.

 

Источник: seonews.ru

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Одноклассники
Опубликовать в Яндекс
Опубликовать в Мой Мир

Рекомендуем ещё