Сен
SEO Conference 2012: секреты поисковых систем и открытия оптимизаторов
Послеобеденная часть первого дня SEO Conference 2012 началась с доклада Виктора Карпенко (SeoProfy) «Как продвигать сайты после Google Penguin».
Запуск алгоритма Penguin состоялся 24 апреля этого года. Алгоритмом было затронуто более 3,1 процентов англоязычных запросов, 3% запросов на немецком, китайском и арабском языке, и более 5 % на русском и польском языках. Докладчик кратко охарактеризовал различия алгоритмов: Penguin обращает внимание на ссылки, а Panda – на контент.Виктор обратился к залу с вопросом, чьи сайты затронул Penguin, руки подняли около 35% участников конференции.
Докладчик отметил, что в большей степени пострадали сайты с некачественными ссылками и низкопробных ресурсов (например, сплогов). Заметно упали сайты с переспамом прямого вхождения ключевых слов в анкорах, в целом — использование неестественных, заведомо покупных ссылок. По мнению Виктора такое падение сайтов было вполне ожидаемым.
После запуска Penguin, отмечает Виктор Карпенко, стало очевидно, что Google учитывает следующие параметры для анализа сайта:
- естественность и непрерывный рост ссылочной массы,
- плавный рост числа ссылок,
- качество контента,
- социальные факторы,
- внутреннюю оптимизацию ресурса,
- поведенческие факторы.
Причем по мнению докладчика, поведенческие факторы учитываются Google в меньшей степени, чем Яндексом.
Признаками того, что сайт попал под действие алгоритма Penguin является резкое падение позиций сайта (на 100 позиций и более). Если в этот момент вебмастер не предпринимает никаких действий относительно сайта, он продолжает падать все ниже и ниже. Следовательно, падает посещаемость. И, самое страшное, владелец сайта получает «письмо счастья» от Google в Вебмастер.
Как же продвигать сайты после Pinguin? Следует говорить в этом случае отдельно о тех ресурсах, которые попали под действие алгоритма («пострадавших сайтах»), и о новых сайтах, которые только начинают продвигаться.
Конечно, шансов на реанимацию «пострадавшего сайта» крайне мало. По статистике Виктора Карпенко, из 48 сайтов, которые пытались реанимировать после Penguin, удалось достичь положительных результатов только по 3, но попытаться стоит.
Варианты мер по реанимации сайта, пострадавшего от Penguin:
- убрать часть ссылок, если это возможно,
- разбавить имеющиеся ссылки безанкорными ссылками,
- поставить 301 редирект,
- отправить письмо в поддержку,
- сделать сайт на новом домене.
Докладчик рассказал о способах разбавления ссылок естественными безанкорными ссылками:
- привлечь пользователей, которые захотят сами разместить ссылки на ваш ресурс за счет интересного контента (долгий и дорогой способ);
- проведение конкурсов и лотерей (очень хорошо работает для получения естественных ссылок);
- проставление ссылок вручную. При размещении ссылок вручную надо учитывать качество самих ссылок и качество ресурсов, которые ссылаются на продвигаемый сайт.
Виктор отметил, что использование 301 редиректа приносит, как правило, лишь временный результат, который может спасти ситуацию, пока не запущен новый ресурс клиента. Создается новый домен, который при помощи 301 редиректа переклеивается со старым сайтом. Через 3-4 недели новый сайт набирает хорошие позиции в поиске, при этом алгоритм Penguin не успевает «настигнуть сайт», и какое-то время на него продолжает идти трафик. Но, к сожалению, этот вариант реанимации «пострадавшего сайта» помогает лишь временно, через определенный промежуток времени, в том случае, если владелец сайта не произведет никаких других значимых изменений и не попытается исправить ситуацию, и новый сайт также станет «жертвой» Penguin.
Основные выводы доклада Виктора Карпенко:
- разбавляйте ключевые слова в анкорах ссылок (не менее 50% ссылок должны быть с бренд-неймом — сдержать название компании, такие ссылки воспринимаются поисковиком как естественные);
- обеспечивайте качественный ссылочный профиль (уникальность ссылок; одна ссылка со страницы донора;
- ссылки с сайтов, не продающих другие ссылки);
- наращивайте ссылочную массу плавно и постоянно;
- проводите мониторинг вашего сайт на предмет «гадостей» от конкурентов;
- проводите качественную внутреннюю оптимизацию вашего сайта в соответствии со всеми рекомендациями Google;
- «не складывайте все яйца в одну корзину», по возможности заводите несколько ресурсов, а не один.
Вопросы Виктору Карпенко из зала:
Зал: Пингвин накладывает фильтр на весь домен целиком или на конкретную страницу?
Виктор Карпенко: Бывает и так, и так. И на одну страницу, и весь сайт.
Зал: Вы говорили про качество ссылки. Я понял, что вы его определяете по донору, чтобы с донора было как можно меньше исходящих?
Виктор Карпенко: Нет уникальной золотой формулы. Но на результат влияет и тот факт, ссылается кто-то на сам донор или нет.
Зал: Вы показали примеры сайтов, где все хорошо получалось и росли позиции. А где вы ссылки покупали?
Виктор Карпенко: На англоязычные ресурсы ссылки не закупались там, где их можно легко купить. Но после Penguin мы пересмотрели подход ко многим проектам. Тактика зависит от того, что вы хотите — денег быстро или длительной работы и постоянного роста.
Зал: Более 50% анкоров должны состоять из бренднейма? Это действует для главной страницы?
Виктор Карпенко: Вообще-то да. Но, на мой взгляд, поисковики могут в дальнейшем отключить влияние анкора, все будет без анкора и будет зависеть от внутреннего содержания и веса сайта.
Зал: Что проще, если сайт попал под Penguin, сделать новый сайт или пытаться реанимировать старый?
Виктор Карпенко: Стоит, стоит делать новый сайт. Тут дело не только в SEO, тут дело в том, что SEO работает все хуже, его все меньше, важны другие виды рекламы и продвижения. Старый сайт надо развивать другими источниками трафика. Если же вы хотите получить быстрый эффект — лучше сделать новый сайт.
Следующий доклад на тему «Поиск для сайта: повышаем конверсию сайта и отдачу от поиска» представил Дмитрий Вульбрун из Яндекса.
Дмитрий рассказал залу о том, что такое «пользовательское счастье» (скорость и простота для пользователя достижения цели «найти информацию, за которой пользователь пришел на сайт) и поведал, что поиск на сайте является одним из основных инструментов, способных повысить «пользовательское счастье».
Почему поиск должен быть на сайте? Потому что если информация плохо доступна пользователю, у него меньше счастья, у сайта меньше посетителей, а у компании мало доходов.
Дмитрий предложил классификацию поисковых инструментов на сайтах:
- внешние индексаторы (вроде поиска от Яндекса), обладающие простым пользовательским интерфейсом и небольшими возможностями настройки;
- на основе баз данных — как правило, собственные разработки, имеют неограниченные возможности, но требуют привлечения программиста для внесения изменений;
- внутренняя индексация посредством серверного ПО. Лучший вариант поиска, предоставляет любые возможности и настройки, изменение ранжирования и т. п., но требует команды разработчиков для внедрения и поддержки этой системы поиска.
Поиск Яндекса, один из вариантов внешних индексаторов, все же предоставляет некоторые возможности для творчества вебмастерам сайтов. Например, вебмастера могут улучшить свежесть и полноту поиска, сообщая Яндексу при помощи специального инструмента о новых или измененных документах на сайте. Подробную видео-инструкцию по установке поиска на свой сайт можно посмотреть здесь.
Поиск Яндекса предоставляет возможность анализировать действия пользователей при поиске по сайту. Демонстрирует запросы, показы, клики, частотность запросов. Это позволяет вебмастерам получить информацию о том, популярен ли поиск на сайте; полезен ли поиск по сайту для пользователей (находят ли пользователи то, что искали), узнать больше об интересах пользователей (зачем они приходят на сайт и что они не сразу заметили на ресурсе); выяснить, чего не хвататет на сайте, к чему нужно стремиться, что добавлять.
Докладчик поведал о будущих возможностях поиска по сайту Яндекса: в ближайшем будущем вебмастера смогут менять и редактировать поисковые подсказки, которые сейчас помогают исправить ошибки и опечатки, предлагают варианты поиска пользователям. При помощи специального, простого инструмента вебмастера смогут удалять ненужные подсказки, менять подсказки местами, дополнять подсказки приставками, словами и добавлять к списку свои собственные варианты подсказок. Яндекс воспринимает этот инструмент не как простой способ улучшения поиска по сайту, а как рекламный инструмент для вебмастеров.
Вебмастер может управлять также фильтрами поиска, подбирать наиболее подходящую страницу для результатов по тем или иным запросам, и этим инструментом уже пользуются на сегодняшний день ряд крупных сайтов.
В завершении Дмитрий дал несколько рекомендаций о том, как повысить «счастье пользователей» на вашем сайте при помощи поиска по сайту от Яндекса:
- убирайте дубликаты и лишнюю информацию из поиска по сайту (исключением url из поиска);
- улучшайте отображение результатов поиска: разметка страницы, красивые сниппеты.
Вопросы Дмитрию Вульбруну из зала:
Наиль Байков: Если я владелец коммерческого сайта и ставлю поиск по сайту от Яндекса, это повысить мой сайт в результатах выдачи?
Дмитрий Вульбрун: Нет, это никак не повлияет.
Наиль Байков: А на индексацию повлияет?
Дмитрий Вульбрун: Косвенно, только для молодых сайтов, если вы сами пингуете страницы, чтобы они быстрее индексировались.
Зал: А повлияет на быстрые ссылки?
Дмитрий Вульбрун: Нет, никак. На представление сайта в большом поиске, на ранжирование, сниппеты — это не повлияет. Это отдельный сервис.
Зал: Яндекс.Поиск платный для большого количества вопросов?
Дмитрий Вульбрун: Неправда, лимитов нет, сервис совершенно бесплатный.
Зал: Чем вы лучше, хуже, быстрее конкурентов?
Дмитрий Вульбрун: Мы разные. Google индексирует чуть быстрее Яндекса. А у нас есть возможность пингов. У нас интерфейс удобнее, более наглядный, на наш взгляд. Уточнениями стали пользоваться более 60% пользователей, вновь устанавливающие поиск, это значит, что это полезный и важный сервис.
Зал: Зачем Поиск.Яндекса у себя на сайте, если клиент, который попал по запросу на сайт уйдет к конкуренту по рекламе, которая показывается в результатах поиска по сайту?
Дмитрий Вульбрун: Мы стараемся на сайтах-магазинах не включать рекламу (мы проверяем все ресурсы вручную).
Зал: Если реклама была включена на сайте-магазине? Отключите по просьбе собственника сайта рекламу?
Дмитрий Вульбрун: Мы готовы рассмотреть и обсуждать этот вопрос, вероятно мы пойдет навстречу владельцу сайта.
Зал: На каких тематиках популярностью пользуется поиск на сайте?
Дмитрий Вульбрун: Сайты для школьников и студентов (обучение, рефераты и т. п.), информационные ресурсы, региональные порталы, и даже крупные интернет-магазины.
Зал: Ранжирование осуществляется только по тексту или еще что-то используется?
Дмитрий Вульбрун: Используется формула большого поиска. То есть, модель большого поиска, те же факторы, только в рамках одного сайта. Фактически расширенный поиск (поиск по сайту).
Далее Владимир Офицеров, постоянный гость SEO-Conference, инженер отдела поиска из офиса Google в США, заверил слушателей, что «Нет секретов в деревне у нас: Доступность информации как один из принципов Google». Владимир отметил, что до последнего времени поиск был «черным ящиком» для оптимизаторов, никто не знал, что же там происходит внутри. Именно в этом году (в том числе, начиная с этой конференции) Google решил повернуться лицом к оптимизаторам и вебмастерам. Поисковый гигант решил подробно и регулярно рассказывать оптимизаторам в деталях обо всех изменениях в алгоритмах поиска, рассказывать об инструментах, которые позволяют лучше индексировать сайт. Оказывается, в отделе поиска Google в США еженедельно проходят собрания инженеров поиска, где специалисты обсуждают все изменения поисковой машины. Кстати, видео собраний доступно в интернете с русскими субтитрами. Google ежегодно осуществляет 500 обновлений поиска, проводит более 20 000 тестов, и за все время работы поисковой машины провел 200 экспериментов. А в своем блоге Inside Search Google публикует информацию обо всех последних изменениях поиска. Например, недавнюю публикацию о 86 изменениях июня и июля. Более того, теперь Google сообщает обо всех принятых к сайту ручных мерах (фильтрах) в тех случаях, когда сайт не соответствует рекомендациям в Вебмастере Google. За этот год техническая поддержка Google отправила более 4 миллионов сообщений о ручных мерах, это больше, чем за весь период существования компании.
Если сайт взломали, разместили на нем какие-то нарушающие рекомендации Google вещи, то владелец сайта получает письмо от Google с подробным описанием, что не так с сайтом. После решения проблем владелец сайта может обратиться в техническую поддержку с просьбой пересмотреть сайт.
Но Владимир призвал вебмастеров не присылать письма относительно ручных мер, с просьбой убрать алгоритм или снять фильтр. Этого делать относительно какого-то отдельного ресурса никто не будет.
Чтобы быть доступнее Google ежегодно публикует отчеты о том, какая информация была удалена из выдачи, так как она нарушала авторские права или законодательство какой-либо страны, а также информацию о запросах различных государственных служб и организаций по поводу данных поисковой системы.
Сегодня большой свежий поиск Google – это 100 петабайт, 20 миллиардов сканируемых страниц в день, 30 триллионов известных url.
Владимир подробно рассказал об алгоритмах Google.
Алгоритм Panda появился больше года назад и призван представить в выдаче сайты с качественным контентом. Алгоритм отразился на 12% сайтов за рубежом и 8% сайтов в России. Таким образом, Panda – это алгоритм понижения контентных ферм.
Baby Panda – алгорит понижения сайтов с избыточной рекламой. С высокой точностью ловит ресурсы с назойливой рекламой и исключает их из выдачи.
Penguin — алгоритм понижения перепродвинутых сайтов. Ловит сайты со спам-ссылками и нарушениями рекомендаций по качеству сайта. 10% таких сайтов отфильтрованы в России, и 3% по всему миру.
Чтобы избавиться от алгоритма Penguin — не закупайте ссылки, не заполняйте сайты кейвордами, не используйте то, что не соответствует рекомендациям по качеству. Докладчик заверил посетителей конференции, что Panda и Penguin — не единственные алгоритмы, направленные на улучшение качества поиска. Будут и другие алгоритмы, направленные на совершенствование результатов поиска. Поэтому делайте сайты для людей, и в конечном итоге вы не будете волноваться ни о каких алгоритмах, а об алгоритмах пусть волнуются инженеры Google, которые приходят на работу и делают поиск лучше.
Вопросы Владимиру Офицерову из зала:
Наиль Байков: Ккакие сайты считаются качественными?
Владимир Офицеров: Есть более подробная документация. Но кратко — не надо покупать ссылок, набивать ключевиков, работайте над сайтом, не делайте ничего, что помогло бы искусственно поднять ваш сайт.
Зал: А если конкуренты наспамили, то сайт может попасть под Penguin? Как избавиться от недобросовестных действий конкурентов?
Владимир Офицеров: Да, это риски. Но пока проблема не массовая. Мы пытаемся изучить эту проблему, и если она серьезна, то мы будем ее решать. А если вы столкнулись с этой проблемой, вы можете воспользоваться инструментом вебмастера по поиску всех ссылок, который начал работать недавно, а потом обратиться к владельцам сайтов, чтобы эти ссылки убрали?
Зал: Есть ссылочный взрыв, а если резко убрали ссылки — не будет ли это негативным фактором для Google?
Владимир Офицеров: Нет, не будет.
Зал: Baby Panda сильно влияет на выдачу?
Владимир Офицеров: Нет, Baby Panda мало влияет, удаляет малую долю выдачи. Но работает с поразительной точностью. Таки ресурсов меньше 1% от выдачи.
Зал: Планируется ли в ближайшее время апдейт Panda?
Владимир Офицеров: На самом деле апдейты вроде Panda обновляются с периодичностью от месяца до трех. То есть, точных сроков я вам не скажу. Но чем больше алгоритм был в выдаче, чем он старше, тем более чаще цикл его обновления. Penguin — молодой алгоритм, еще не достаточно отработан, и поэтому обновления его не такие частые.
Зал: Хочется идти на контакт с инженером поиска, но получаешь стандартные ответы.
Владимир Офицеров: Мы поддерживаем вебмастеров, используя форум. У нас очень много работы и мы не может отвечать на вопросы каждого индивидуально.
Наиль Байков: А Baby Panda учитывается Google Аdsense в объеме рекламы?
Владимир Офицеров: Да, это же тоже реклама.
Зал: Учитываются ли показатели отказов на отдельных страницах сайта (например, страницы перенаправления на разделы каталога, они мало задерживают пользователей)? Или только показатель отказа всего сайта?
Владимир Офицеров: Да, если пользователь остался на сайте, на всех его страницах, то это нормальный сайт. А если он вообще ушел с сайта через 10 секунд, то это отказ и это повод задуматься о качестве ресурса.
Зал: Это случайно, или это будет так всегда, что один сайт занимает 3-4 позиции в выдаче (а иногда и семь) — ссылка? Владимир Офицеров: Речь идет о доминирующих в поиске сайтах (например — брендированные запросы).
Зал: Как вы оцениваете ,что пользователи стали получать более релевантные результаты поиска?
Владимир Офицеров: Есть блог, где описано, как мы проводим тестирование алгоритмов. Мы показываем пользователям в случайном порядке результаты выдачи, а потом спрашиваем, какая выдача нравится больше. Все это статистически обрабатывается. Если результаты нравятся пользователям, то, значит, это хороший алгоритм.
После выступления представителей поисковых систем, Олег Щеголев (SEMrush) представил публике доклад «Кто управляет контекстной рекламой». Докладчик рассказал о ведущих агентствах, занимающихся управлением рекламой. Согласно докладу, больше всего рекламных объявлений размещается компанией Begun, и по количеству объявлений, и по бюджетам рекламных кампаний. При этом крупнейшим клиентом Begun является Google, ежемесячно размещающий рекламу на 42 тысячи долларов США, при этом любопытно, что замыкающий ТОП-10 клиентов Begun по объемам рекламы рекламодатель тратит в месяц всего 2000 долларов США на рекламу. Докладчик представил еще ряд любопытных фактов, полученных в ходе проведения исследования.
Завершил выступления первого дня конференции Михаил Сливинский (руководитель отдел поисковой аналитики Wikimart) с докладом «Непривычное SEO. Кейсы». Михаил отметил, что в своей компании они стремятся использовать неспамные методы поискового продвижения и аналитики, чтобы развивать SEO. Успех, по мнению докладчика, — это не специфические KPI, это когда бизнес чувствует себя хорошо каждый день. Михаил Сливинский глубоко убежден, что SEO – это гораздо больше чем тексты и ссылки. Все осложняется тем, что существует проблема спама, с которой борется поиск и существует модель эволюции поиска.
Михаил отметил последние тренды в SEO:
- реальные (значимые) для бизнеса KPI,
- больше математики, логики и поиска,
- меньше шаманства,
- больше аналитики.
Михаил рассказал о необычном, но весьма рациональном подходе и SEO и маркетингу в компании. Во главу угла ставятся не сомнительные ощущения менеджеров, а аналитика, статистика, реальные данные. Согласно логике Михаила, ассортимент любого магазина должен определяться на основе анализа поиска и поведенческих предпочтений. То есть, необходимо сначала думать, а потом уже набирать ассортимент, а не поступать, как это обычно делается: закупается товар, а после продавец думает, каким образом магазин будет продвигаться в сети.
При составлении семантики, уверен автор доклада, недостаточно учитывать только данные Яндекс.Wordstat. Этот инструмент оставляет без внимание огромное количество данных о поиске, откидывая в процессе ранжирования поисковых запросов все запросы пользователей, которые набираются один раз в день или реже. А это — более 50% всех поисковых запросов, отмечает докладчик, ссылаясь на данные самого Яндекса, представленные в рамках одной из конференций два года назад. Часто при анализе и подборе семантики для продвижения упускаются запросы, не имеющие вхождения ключевых слов, но воспринимаемые пользователем как наиболее важные запросы по данной тематике. Например, при подборе семантического ядра для салона свадебных платьев надо анализировать не только запросы, связанные со свадьбой и платьями, но и названия тех или иных брендов, марок, фасонов и другие схожие запросы пользователей.
При этом, при составлении семантического ядра необходимо думать о клиенте, потому что именно клиент обеспечивает понятные бизнесу KPI – оборот и маржа.
Один из успехов компании, где работает Михаил — достижение высокой конверсии со страниц-листингов (списков товаров). Ни для кого не секрет, что трафик, пришедший на сайт по названию конкретной модели, как правило, конвертирует лучше, так как клиенты, набравшие название модели в поиске, уже готовы совершить покупку и выбирают магазин или цену. А вот посетители, пришедшие на сайт по названиям категорий товаров, конвертируются заметно хуже. Но, благодаря внутренней оптимизации, разработке и внедрению сложных алгоритмов ранжирования товаров на страницах листингов, Wikimart удалось добиться почти таких же высоких показателей конверсии со страниц листингов, как и со страниц моделей. При этом данные для сложных алгоритмов компания черпает не только из поиска, но и из многих других источников, анализирую запросы, предпочтения и желания потенциальных покупателей.
Михаил порекомендовал участникам конференции читать больше аналитических статей и применять больше математики и аналитике в своей работе. В качестве примера он предложил статьи сотрудников Яндекса: «Как поиск Яндекс учитывает пол при ранжировании» и «Как можно определить пол, опираясь на длину поисковых запросов».
Докладчик также отметил, что для хороших результатов ни в коем случае нельзя делать дешевый рерайт сайтов. Дешевый рерайт дает псевдорезультат, потому что плохой текст не сможет конвертироваться в продажи. Сегодня заказчик готов нам платить за позиции, но завтра перестанет, так как позиции не конвертируются в деньги.
Надо изучать то, что интересно пользователя. Например, у телефонов — чтобы удобно лежал в руке, для мясорубки — чтобы шнур складывался в специальный отсек. Надо не выдумывать историю, а анализировать то, что ищут люди и писать тексты на основании этих вещей.
Большой интерес у зала вызвал Кейс про управление сниппетами. Работа со сниппетами необходима, так как позволяет избежать нецелевого трафика и улучшить страницы приземления, а, следовательно, повысить конверсию. Основной задачей является помещение в сниппет нужного контента, обеспечивающего кликабельность по этому сниппету. Чтобы понять, как поисковик формирует сниппет, необходимо анализировать выдачу, производить мэппиинг (соотнесение текста сниппета с текстом страницы сайта).
В Яндексе, отметил Михаил, в сниппет попадают релевантные кусочки текстов, где искомые слова находятся недалеко друг от друга, при этом не должно быть повторений. То есть, текст на сайте должен развивать информацию тайтла и включать в себя ключевые слова. Сниппеты, по сути, похожи на контекстную рекламу. От настройки сниппетов зависит кликабельность по ним. Кстати, Михаил отметил, что первоначально, компания тестирует сниппеты при помощи контекстной рекламы, а потом уже использует наиболее удачные варианты для сайта. При этом хорошими сниппетами считаются не те, которые имеют высокий CTR, а те, которые обеспечиваются высокую конверсию на сайте и обладают хорошим CTR.
Благодаря используемым механизмам анализа и алгоритмам управления сниппетами, Wikimart удалось добиться 21-27% управляемых сниппетов в Яндексе и 49-80% управляемых сниппетов в Google. При этом, оказывается, алгоритм формирования сниппетов изменяется один раз в месяц.
Все это компания делает не просто так. Аналитики собирают информацию относительно того, какой доход приносит каждая из страниц сайта, что позволяет им не только повышать эффективность продвижения, но и отказываться от безрезультатных затрат.
В завершении доклада Михаил Сливинский посоветовал слушателям: больше считать, смотреть на развитие поиска, смотреть на покупателя и пытаться влезть в его шкуру. Это не просто, но это единственный способ осчастливить своих заказчиков и клиентов по SEO.
Вопросы к Михаилу Сливинскому из зала:
Зал: Вы обозначали даты обновления сниппетовщиков? Последняя дата в августе? А еще были?
Михаил Сливинский: Не знаю, наверное больше не было, данные собирал не я.
Зал: Вы говорите про управление сниппетами. Какие сниппеты для коммерческих запросов более кликабельны, с описанием цены или товара?
Михаил Сливинский: Это по-разному, одно другого не исключает. Все зависит от задачи. Когда ведете пользователя на страницу модели — говорите про модель, товар. А если на страницу — листинга (списка товаров), то показывайте другие свойства — топовые бренды, цены, широту ассортимента и т. п. То есть, информация в сниппете должна зависеть от содержания и назначения страницы и тех действий, которые вы хотите получить от пользователя.
Зал: Почему такой маленький процент у Яндекса управляемых сниппетов, на ваш взгляд?
Михаил Сливинский: Потому что Яндекс реже берет в сниппет контент из метатегов. Но вот полгода назад он стал делать это чаще. Так просто устроена поисковая система.
В завершении первого дня конференции специалисты отдела поиска Google Владимир Офицеров и Мария Моева провели «Клинику сайтов Google», где рассказали владельцам сайтов о том, как сделать их ресурсы лучше и привлекательнее для посетителей и поисковой машины.
Источник: www.searchengines.ru