Анар Бабаев на конференции NetPromoter 09 в своем докладе рассказал о возможности автоматизации поискового аудита сайта, отчетности и обосновании затрат.

Что входит в аудит сайта:
- запросы для продвижения
- видимость сайта в поиске по сравнению с конкурентами
- источники трафика
- индексация сайта
- скрытые проблемы
- правки на сайте
- стратегия размещения ссылок
- аналитика

Самое трудоемкое получается – оптимизация страниц сайта (логика структуры, тайтлы, тексты). Адекватное решение – использование софта. При этом, софт должен определять:
релевантную страницу с помощью поиска по сайту,
выявлять соотношение главная/внутренняя и нпс, часточность запроса у конкурентов, наличие запроса в татйтле у конкурентов.
Анализировать можно по 50 результатам выдачи. Видно, что если внутренних больше по этому запросу, то очевидно, что алгоритм сейчас здесь работает такой.

Безусловно и CMS должна быть удобной для SEO. Что это значит?
SEO-CMS должна уметь:
управлять тайтл х1 и дескрипшн для любых страниц
автоматически генерировать тайтл
управлять или автоматически изменять названия страниц
генерировать карту сайта
защищать контент (отключение выделения мышью текста, правой копки мыши)
управлять внутренним ссылочным (перелинковка по кольцу, вариантов десятки – хорошая cms должна это делать в автоматическом режиме)
не плодить дубли
не генерировать сессии в url
Автоматическая транслитерация по английским запросам в тайтлах- это также очень полезная функция

Вопрос: Какая cms близка к идеалу?
Ответ: полностью то что я сказал, не делает ни одна. С доработками руками, то и Битрикс может.

В отношении отчетности автоматизация также необходима.
Заказчик в любой момент должен понимать, как работают его деньги. Очевидно, что таблицы с позициями недостаточно.

Ччо можно показывать клиенту? Можно показывать: позиции, видимость, эффективные показы. Полезно показать активность конкурентов, но еще более полезно показать конкретно seo-трафик, внешние траты, нормочасы.

Некоторые сервисы, например Biplane.Seostats или seorate.ru, которые позволяют в режиме он-лайн посуточно показывать динамику позиций, динамика эфф. показов и видимости, динамику конкурентов, динамику спроса, накрученность запросов, нишевые фильтры.
Эффективные показы рассчитываются так:
Эффективные показы=сумм чр* кппс* кп
видимость=ЭП*100/ЭП max

При парсинге позиций важно:
не истользовать xml
использовать диапазон IP или прокси
делать длинные random-паузы
имитировать пользователей (куки, юзер-агент)

При парсинге статистики Рамблера ситуация схожая:
имитация пользователей
разные ip
разные login
разные user-agent
разные cookies
использовать паузы

При анализировании трафика, главная задача – отделить прямую заслугу оптимизатора от естественного трафика из поиска.
Главный вопрос – берем только трафик по точным словоформам или по всем производным?

Варианты решений здесь:
парсить отчеты популярных систем статистики (Google Analytics)
писать свой собственный счетчик
парсить логи

Результат данной аналитики ответ на вопрос, сколько посетителей в сутки приносит SEO

На что еще можно смотреть:
накрученный ли спрос, используются ли нецелевые фразы, человеческие ли сниппеты.
Это даст нам возможность корректировать усилия в SEO.

И наконец, самое интересное – обоснование затрат.
На рынке сейчас схем очень много, это и оплата по факту, и посуточная оплата, возврат денег в случае невывода и т.д. Все это разные маркетинговые схемы.
Cбор данных для обоснования бюджета – трудоемкая задача, но расчет финансовых схем автоматизировать нужно, так как это дает нам экономию времени менеджера и понимание со стороны клиента.

Возможна и такая схема обоснования затрат: оплата за день в топе: висели – берем деньги, не было в выдаче – не берем.

В заключении доклада Анар Бабаев сделал ряд выводов по автоматизации процессов поискового продвижения:
автоматизация должна быть закрытой
попытка заменить оптимизатора роботом – ошибка
софт не должен принимать решения
единственный судья – поисковая система

«Как только выдача становится подконкрольной простому смертному – сразу поисковая система кардинальном меняет алгоритм… так мы потеряли линкаторы…
из зала (не очень тихо)- так мы потеряем сапу…»

Вопрос: готовы вы к смерти сапы?
Ответ: да, есть проекты которые мы пробуем продвигать без бирж. Вариант – ручной резьбы по дереву. У нас есть база сайтов карточек работы, работающих каталогов, сайтов, размещающих статьи….

Вопрос: чем отличаются биржи статей от биржи ссылок. Если биржи убьют, то и статейные тоже…
Ответ: вопрос в том как будут убивать биржи.

Вопрос: Что про свои сети скажите?
Ответ: это не сети. Это порталы, заточенные под медийку. Один портал может продвинуть всю низкочастку – в легкую. Они создаются для других целей. Пример, dforum – дизайнерский портал.
Вопрос: но ведь много таких не сделаешь, накладно?
Ответ: у нас где-то десяток, да

Вопрос: одним проектом можно продвинуть всю низкочастотку – какая схема?
Ответ: ну тут же все просто, подумайте… 1000 ссылок на 1000 страниц – чем не схема? Вот одну тему спалил, нормально.

Риторический вопрос – что будет через 10 лет с SEO?

Ответ – все мы умрем, это ж понятно – пойдем в Директ.

 

Источникwww.searchengines.ru

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Одноклассники
Опубликовать в Яндекс
Опубликовать в Мой Мир

Рекомендуем ещё