Окт
CyberMarketing 2012: практические советы по продвижению сайтов
Конференция Cybermarketing 2012, крупнейшее мероприятие в области SEO, состоялось в Москве 12 октября, в концертном зале РАН. Конференцию открыл ведущий Игорь Артеменко (SEOPult).
Первый доклад представил Александр Митник (руководитель обучающего центра CyberMarketing). Свой доклад автор посвятил нестандартным методам SEO. Первоначально планировалось, что Александр будет делать доклад после Сергея Людкевича и Алексея Жукова, которые должны были говорить о двух столпах SEO («замороженный топ» — Сергей Людкевич, и «1000 чешек» — продвижение по 1000 низкочастотных запросов — Алексей Жуков). Но в программу были внесены некоторые изменения. Александр Митник представил ряд практических кейсов и рассказал о том, как увеличить покупающий трафик на сайт при существующей ситуации в SEO.
Видеоконтент.
Многие годы вебмастера вытаскивали сайт на внутренних факторах (на текстовых), а размещение видеоконтента было проявлением дурного тона. Но сейчас интернет быстрый, и продвижение видеоконтента способствует увеличению поведенческого фактора — нахождение на странице. Также видеоконтент, в отличие от текста, привлекает внимание пользователей и сделан специально для них. Никто не отменяет текст на страницах, можно и текст, можно и текст с ключами. Но чтобы посетитель что-то вынес из страницы и на ней задержался — надо добавить видеоконтент. Когда нет возможности записать студийную запись с людьми, воспользуйтесь возможностями презентаций и слайдшоу.
Какие поведенческие факторы можно подкрутить естественным образом:
держать на странице (видеоконтент, игрушки, что-то интересное, тригеры), или водить по сайту — завлекающие вещи. Сейчас часто можно заметить на сайте «кликни сюда», «получить бесплатный видеокурс», «скачай сейчас». Задерживает пользователя также видеоконсультант или звонок с трубочкой. Тригер времени — заканчивается время и т. п. (осталось столько-то минут, секунд, экземпляров). На самом деле тригеров очень много.
Метод работы «шиворот-навыворот»:
просматривая подсказки к средне и низкочастотке, мы видим в подсказках ключевые слова, по которым хорошо собирать трафик. Пока это слово низко в подсказках, и нет конкуренции, надо вывести свой сайт в топ, а потом уже накрутить запрос, чтобы накрутились подсказки. Для этого есть сервисы. Тут важно учитывать, что когда вы накручиваете подсказки, вы не подставляете свой сайт, так как нет технической подкрутки самого сайта.
Работа с клиентами:
вместо ухода клиента с сайта после того, как он прочитал все (метод – «спасибо и пошел вон!»), перевести на свою группу Вконтакте или Facebook. Все это подать в красивой обертке, например, скидка на участие в чем-то, скидка на продукт и т. п. (пользователям за размещение ссылки на сайт, страницу, статью в социальных сетях).
Или проведение конкурсов с условием «добавиться в группу компании в Google+». При этом важно, что такие вещи надо делать в момент нахождения пользователям на сайте, в момент заполнения форм заказа или контактных форм.
Завершающая страница сайта (где пользователь выходит), ваш заказ принят — оставить отзыв на Маркете или в соцсети.
В Google можно украсить сниппет при помощи спецсимволов кодировки unicode. Не факт, что если спецсимвол добавлен в дискрипшен, он обязательно отобразится в выдаче. Но при помощи этого кода можно отрубить, например, показ описания из DMOZ.
А что делать с форумами?
Пример самарского форума нумизматов. Тайтлы на форуме управляются за счет управления заголовками постов и тем. То есть, правилами форума. Не допускается постов «что это такое», «сколько стоит». Можно лишь «оцените 10 копеек 1915 года» и т. п. Все эти вопросы дублируются в тайтле. То есть, продвигать форум в поиске можно путем управления пользователями форума. Добавить ссылку на сайт можно лишь либо по согласованию с администратором форума или после 100 постов.
type-in трафик — сколько людей добавило в избранное, поделилось в социальных сервисах или почте, ввели в браузере адрес домена и т. п. За этот трафик надо бороться, по крайней мере, с точки зрения улучшения поведенческих показателей сайта.
Многие спрашивают Александра: «Вы же растите себе конкурентов, зачем вы нам рассказываете это?» Но автор доклада не выражает совершенно никаких опасений на этот счет. Митник часто спрашивает на семинарах: «Есть ли у вас противопоказания против ссылки – «Добавить в избранное»?” Возражения аудитории — не модно (так как много продаж) или работает только в Explorer (на самом деле есть корсс-браузерный код). Александр просит всех, кто добавит на сайт кнопку «добавить в избранное», отписаться автору доклада. Но если в аудитории 200 или 100 человек, это рекомендацию на самом деле выполняет лишь 5-7%.
Другие способы получения трафика: виджеты на посещаемом сервисе или для рабочего стола, ставить ссылки в рассылке (но это не работает через веб-сервисы почты), браузер tool-bar и т. п.
Последняя проблема, которую предложил обсудить докладчик – «замороженный топ-10». Например, запрос «как научиться кататься на роликах». В выдаче по этому запросу большая часть именно информационных сервисов, где только статьи, а ресурсы зарабатывают на рекламе. То есть, те, кто должен продвигаться по этому запросу могут просто прийти на эти информационные сайты, написать админам и разместить за копейки там баннер, который будет собирать весь целевой трафик.
Или например запрос «гид на мальте». Большинство результатов выдачи — сайты с информационными статьями. Они, как правило, имеют поле комментариев. Но комментариев, зачастую, там нет. Поэтому если вы дадите там свои комментарии, то вы соберете весь трафик.
Таким образом, в своем докладе Александр Митник пытался просто показать какие-то практические кейсы и не останавливаться на теории.
Второй доклад на тему «Ядро в 100 000 запросов. А вам слабо?» представил Алексей Жуков (Техно-В). Он решил рассказать подробнее о семантических ядрах. В докладе он решил затронуть только некоторые проблемы и пути их решения, потому как тема, сама по себе, очень большая. Размеры ядер, по мнению докладчика, имеют значение. Во-первых, скорость составления (чем меньше — тем быстрее). Реально обработать ядро в 10000 запросов без специальных инструментов месяца за 4. На 10-20 запросах можно охватить маленький процент трафика. Чтобы собрать 50% трафика с тематики — набрать 5-6 тыс. запросов.
На маленьких ядрах пустышек (запросов не целевых) — нет, на средних их мало, а на больших ядрах их очень много.
Как правило, структура сайта затачивается под ядро, это имеет отношение к большим, многостраничным сайтам. А с маленькими — наоборот. Раньше вообще всегда делался сначала сайт, а потом уже запросы подбирались. Стоимость трафика на маленьких ядрах очень большая, стоимость клика до 20-30 рублей и выше, а на больших ядрах цена от 1 копейки до 0,1 копейки. А также сравнил другие параметры.
Проблемы больших ядер: много времени на составление, отсутствие необходимых инструментов (пока в открытом доступе только один серьезный инструмент, по мнению заказчика, да и тот не позволяет решать всех проблем), вопрос охвата («а все ли мы собрали»).
Источники для ядра — директ, метрика, анализ конкурентов, изучение тематики и т. п.
Главное, в процессе не потерять важные запросы. Например, запрос «плитка». Однословники — это лишь 1% от трафика. Трехсловники — 20%, четырехсловники — +30%.
Как чистить ядро — проверка корректности словоформы, ошибки и т. п. Но тут главное не выкинуть лишнее, потому что бывают интересные марки и т. п. Узнать тематику — можно уточнить у клиента или посмотреть вручную.
Как еще подбирать ключевики – проанализируйте тошноту самой страницы выдачи, какие слова на этой странице (в сниппетах) встречаются наиболее часто, и это поможет выявить ключевые слова, по которым надо продвигать. Так можно выявлять плюс-слова и стоп-слова.
Как же дальше делать сайт на основании этого ядра? Надо анализировать выдачу и после этого планировать страницы будущего сайта. Логика формирования групп запросов — получаем данные по топ-50 и проверяем, на каких документах могут встречаться еще вопросы. Находим оптимальную группу. А дальше составляем ТЗ копирайтеру — какой должен быть контент и какая частота.
Все это помогает сократить время на работу над ядром с четырех до 1 месяца. Основная идея презентации — нужно сначала анализировать выдачу, а потом уже строить сайт и контент.
Вопросы из зала:
Зал: Вопрос — сколько времени сейчас у вас уходит на составление ядра?
Жуков: Зависит от команды и сложности тематики, но не больше одного месяца.
Зал: А где-то в статьях есть ваша методика распределения ключевиков в группы? А то хочется запрограммировать.
Жуков: Нет, полностью структура нигде не описана.
Зал: Были ли в коммерческой тематике примеры, когда не высокочастотники с небольшим хвостом берут основной трафик?
Жуков: Да, иногда бывает, что редко падает трафика с 2-3 словами уже, например, в сфере фотографий. Иногда бывают всплески в конце, но в этих случаях, как правило, речь идет о накрутке запросов.
Зал: Какой инструмент единственный для анализа?
Жуков: Как правило, у крупных компаний есть собственные инструменты. Пока на рынке доступен KeyCollector, в ближайшее время в нем будет реализован более сложный функционал.
Зал: Ядро уже большое, очистили от всего, остаются запросы, не подпадающие под проверку, даже если проверять выдачу. Что делать с этими запросами?
Жуков: Отсеивание идет либо по стоп-словам, либо по выдаче. Как правило все запросы такие вычищаются по сниппетам (наличию стоп-слов в сниппетах).
Зал: Если есть сайт, по которому по низкочастотникам большое количество страниц в топе. Но нужен высокочастотник. Но его перебивают низкочастотники. Что делать, убивать низкочастотники?
Жуков: Нет, золотое правило — не надо убивать то, что уже работает. Серьезная переделка сайта может растянуться на год, чтобы вернуть позиции ресурса. Если это не критично для бизнеса, то можно это делать.
Сергей Людкевич (начальник отдела аналитики WebEffector) в докладе «Альтернативные методы получения поискового трафика в условиях консервации органической выдачи» рассказал о том, как получить поисковых трафик в условиях усилившейся консервации ТОПа поисковой выдачи. Последнее время на слуху у всех, кто занимается оптимизацией, находятся поведенческие факторы (часто говорят в единственном числе). Кто-то подразумевает количество отказов на сайте, кто-то среднее время, проведенное пользователем на сайте. На самом деле поведенческих факторов не 1-2. Это достаточно большая группа факторов, которая еще и разбита на подгруппы. По мнению Людкевича, таких факторов не один десяток. Но более значимая — кликовые факторы ранжирования (проведение пользователей на странице поиска). Это не только самые мощные факторы среди поведенческих, но и самые мощные среди всех факторов ранжирования, по мнению автора. Только эта группа позволяет выводить сайты в топ за короткое время по достаточно конкурентным запроса.
Кликовые факторы:
- кликабельность документа по запроса,
- кликабельность сайта по запросу,
- кликабельность документа общая,
- кликабельность сайта общая,
- региональные срезы (среди пользователей данного региона).
Непропорционально большое влияние факторов и приводит к тому, что имеет место консервация ТОПа, так как больше всего кликают именно по сайтам, находящимся в топе. Понять логику разработчиков поисковых систем можно. Но у оптимизаторов другая задача — как сделать факторы своего сайта не хуже, чем у топовых ресурсов. Как же получить поисковых трафик. Людкевич предлагает два самых логичных способа получения трафика по запросам с сильной консервацией: неорганический способ (попадание в топ через спектральную примесь) и органический (использование ресурсов с хорошими значениями общей кликабельности сайта).
Органический путь:
Например, попробовать проэксплуатировать те сайты, у которых эти показатели имеют вполне нормальные значения. Например, агригаторы цены. Там можно получить страничку с описанием товара, который предлагается на сайте с контактными данными, группы или профили в социальных сетях, карточки компаний на отраслевых порталах (сайты с хорошими показателями сайтовой кликабельости). Продвигая все эти страницы можно эксплуатировать хорошее значение кликовых факторов этих ресурсов и привести себе трафик на сайт. Плюсы и минусы. Появилась промежуточная точка между поисковой выдаче и посадочной страницей на продвигаемом сайте. На этой точке может потеряться часть пользователей. Это можно не всегда использовать для оптимизации страниц (не все части страницы можно исправить). Но это достаточно рабочий способ, который дает хороший трафик.
Неорганический путь (использование спектральной примеси):
Оптимизаторы вкладывают в это понятие много смысла. Что же вкладывает в понятие сам Людкевич. Спектральная примесь — разбавление органической выдачи результатами поиска по другим запросам, включающим в себя базовый запрос. Для тех, кто двигался в Rambler, еще вспоминается подмешивание в выдачу Rambler TOP 100. Потом Яндекс подмешивал описания из Яндекс.Каталога (три черные точки). И здесь тоже речь идет о подмешивании результатов из другой выдачи.
Спектральная примесь действует не для всех запросов, а для небольшого числа вопросов. Это 2-3 позиции в ТОП-20 (например, запрос «Казани»). Спектральная примесь не зависит от региона (это одни и те же результаты, только могут меняться позиции в выдаче).
Алгоритм попадания в спектральную примесь:
- идентификация спектральной примеси,
- определение самих спектральных запросов, лидеры по которым подмешиваются в выдачу по базовым запросам,
- продвижение по спектральным запросам.
Идентификация спектральной выдачи раньше осуществлялась по параметру doc-id, но два месяца назад этот параметр приобрел единую форму, и определить по нему запрос нельзя. Способ на основе модификации запроса, чтобы смысл не менялся. Добавление в конец запроса значка «электронная почта» оно исключает те запросы, которые являются спектральной примесью.
Дальше надо понять, по какой логике подмешиваются эти запросы. По наблюдениям Людкевича — подмешиваются именно лидеры.
Структура спектрального запроса — точное прямое вхождение базового запроса плюс дополнительные слова слева или справа от него.
Способ определения спектрального запроса. Сайты анализируются из общероссийской выдачи. Сравниваются выдачи по регионам. И в итоге стало ясно, что подмешивается в качестве спектральной примеси именно лидер общероссийской выдачи по спектральным запросам. Еще как вариант — выделение в сниппетах жирным дополнительных слов. А еще можно просто подключать логику.
Плюсы и минусы метода. Запросы спектральной примеси не стабильны, меняются через несколько месяцев. Не всегда спектральная примесь попадает в ТОП10, часто до 39 места, но в большинстве случаев от 10 до 20 места. Но запросы менее конкурентные и консервация там не такая мощная. Это реальная возможность получить трафик.
Вопросы из зала:
Зал: А консервация топа только по конкурентным запросам?
Людкевич: она наблюдается по наиболее популярным запросам, по которым очень много кликают.
Зал: Если использоваться контекстную рекламу, общее значение кликабельности рекламы учитываются?
Людкевич: представители поисковых машин отрицают связь между контекстной рекламой и результатами органической выдачи, иначе это будет означать прямое влияние на выдачу. Но бы сказал так, что возможно учитываются, но не с большим весом. Я не удивлюсь, если учитываются.
Зал: есть мнение, что на молодой сайт не надо ставить Яндекс.Метрику, потому что через нее Яндекс собирает поведенческие факторы.
Людкевич: почему не стоит? Я думаю, что Яндекс может, конечно, брать оттуда факторы, но думаю вес этих факторов не критичен, так как очень огромен объем сайтов, не имеющих Яндекс.Метрику. То есть, я бы не страдал паранойей относительно Яндекс.Метрики. Устанавливайте, не бойтесь. Яндекс найдет, где ему взять информацию, не переживайте.
Зал: Реально ли вообще динозавров из законсервированных ТОПов сдвинуть и стоит ли это сделать.
Людкевич: довольно реально попасть вот, например, в спектральную примесь. А на счет реальности сдвижения динозавров — я бы сказал, не совсем. Если только динозавры сами что-то не «накосячат».
Зал: Это монополия?
Людкевич: это не монополия, это консервация выдачи. Кто первым встал, того и тапки.
Зал: кликовые факторы, которые обсуждались в докладе. Спектральная выдача влияет на кликовые факторы?
Людкевич: есть такое мнение, что в общем-то, наверное, да. Во всяком случае они могут влиять на наличие спектральной выдачи по данному запросу.
Зал: откуда Яндекс знает, что к вопросу «ремонт квартир» надо подмешать запрос «ремонт квартир своими руками»?
Людкевич: ну я точно не знаю. Вот сотрудник Яндекса Плахов делал доклад на конференции о спектральной выдачи (конференция за 2011), посмотрите презентацию. Как я понимаю, берутся наиболее популярные словосочетания, которые содержат прямой запрос. При этом нет простого алгоритма, не достаточно посмотреть wordstat, там более сложная система.
Зал: есть ли проблема консервации в Google?
Людкевич: там тоже важны поведенческие факторы, но проблема стоит не так остро. Реальная консервация именно в Яндексе.
Сергей Кокшаров (независимый аналитик, автор блога Devaka.ru) представил «Результаты исследования ссылочных профилей сайтов, популярных в Яндексе по коммерческим запросам». Свой доклад Сергей решил посвятить именно ссылкам. Когда мы начинаем продвигать сайт, сначала мы его немного оптимизируем, а потом думаем, что надо бы купить ссылок. Вопросы — где брать ссылки, как часто покупать, как составлять анкоры и т. п. Исследование Сергея посвящено правильной ссылочной стратегии. Как делают это другие? Любимчики Яндекса, которым поисковик дает приоритет, и перебить эти ресурсы достаточно сложно.
Шаги исследования:
- Подобрать коммерческие запросы.
- Поиск часто встречаемых сайтов по этим запросам.
- Анализ ссылочных профилей выбранных сайтов.
- Поиск закономерностей.
Первая выборка была взята с сайта 100 номеров, там исследователи взяли основные коммерческие запросы. Вторая выборка — составлена вручную с запросами «купить», «доставка» и т. п. Подбирали сайты следующим образом: брали ТОП-20 и смотрели, кто именно встречается в выдаче наиболее часто. Оказалось, что это Википедия, irr.ru и другие классифайды. Для анализа были выбраны ресурсы вроде Википедии, Яндекс.Каталога, Яндекс.Маркета и крупные доски объявлений. Оказалось, что лишь 24% остается для всех сайтов, если исключить сайты-любимчики поисковиков. Ahrefs.com, majesticseo.com, alexa.com – это сервисы, которые использовали исследователи для анализа, они помогают выстраивать ссылочные профили и анализировать временные срезы покупки ссылок.
Замечания и вопросы из зала:
Митник: вы анализируете ссылочные профили информационных или навигационных ресурсов, но ни одного коммерческого ресурса. Но это, как минимум, не корректно. Я бы хотел обратиться к докладам Ильи Зябликову по поводу ссылочных профилей, он с аналитиками SEOPult выявил 180 факторов в ссылочном профиле.
Зал: если покупать анкорные ссылки дорогие, а безанкорные — дешевые, это нормально?
Кокшаров: Нет, не нормально. Лучше делать наоборот. Анкорные — дешевые, а безанкорные — дорогие. Мы вообще стараемся на дорогих ресурсах не брать ссылки.
Зал: Вы анализировали параметры доноров?
Кокшаров: Нет.
Источник: www.searchengines.ru