SEO-специалистам уже давно известно, что наряду с внешними и внутренними факторами ранжирования сайтов в поисковых системах на позиции в SERP’е влияют и т.н. поведенческие (пользовательские) факторы. Несмотря на это последним уделяют недостаточное внимание. Причин этому множество. Во-первых, не все SEO-компании, особенно занимающиеся «конвейерным» клиентским продвижением, могут выделить ресурсы на анализ влияния поведенческих факторов, мониторинг показателей отказов и количество просмотров страниц, анализ трафика, идущего на сайт и т.д. Во-вторых, специалисты среднего уровня до сих пор работают по принципу «сделал оптимизацию – купил ссылки – жду позиции». В третьих, некоторые оптимизаторы не уделяют внимание пользовательским факторам по той причине, что не считают это нужным, ленятся или просто не знают о них.

Тем не менее, на оптимизаторских конференциях представители Яндекса дают понять, что роль поведенческих факторов становится для поисковой системы все более значимой. Среди множества критериев, влияющих на эти факторы, является оптимизация кода страниц сайта, которой, к сожалению, очень часто не уделяют внимания при организации продвижения интернет-ресурсов.

Зачем это нужно?

 Ответ прост. Оптимизация кода не только ускорит загрузку страниц, но и сделает сайт более дружелюбным к поисковым системам – код станет чистым и красивым, а его элементы будут располагаться в нужных местах. Кроме того, изначально скептически воспринятое оптимизаторами в ноябре 2009 заявление Google о том, что скорость загрузки web-документа является одним из факторов ранжирования, только подтверждает тот факт, что оптимизацией кода страниц следует заниматься. Тем более, что на этот фактор оптимизатор может влиять сам.

Составляющие оптимизации кода.

Ни для кого не секрет, что поисковые роботы не видят дизайн страницы – они читают её код, причем делают это также как и человек – сверху-вниз, слева-направо. Информации, находящейся вверху кода тех или иных элементов, поисковые системы дают больший приоритет. Таким образом, при SEO-вёрстке наиболее важные элементы или контент страницы следует располагать выше второстепенных элементов. Ниже даны некоторые рекомендации для оптимизации кода страниц, которые позволят сделать кампанию по его продвижению в поисковых системах более эффективной.

  1. Title, Description и Keywords – располагаем сразу после тега <head>.

Данные теги должны следовать сразу после тега <head>. Очень часто этим пренебрегают, и нередко можно видеть, как после заголовка head идёт всё, что угодно, но только не Title и мета-теги. Многие популярные CMS, например, Joomla «грешат» этим.

В приведенном выше примере, если не обращать внимание на спамный keywords, показана часть неоптимизированного поля HEAD.

  1. CSS-стили и Java-скрипты – «прячем» в файлы .css и .js.

Если пренебрегать этим простым правилом, то значительную часть кода страницы могут составлять стили оформления элементов страницы и java-скрипты. Этот код является техническим, он не несёт пользователю полезной информации, т.к. в нем не сосредоточен контент, но при этом он добавляет объём для страницы. Поэтому очевидно, что для ускорения загрузки страниц и SEO-вёрстки необходимо выносить его в отдельные файлы с расширениями .css и .js.

  1. Контент в коде – «выше»!

Среди вебмастеров ходит много споров на тему того, какая верстка лучше для поисковых систем – табличная или верстка слоями (div’ная). С точки зрения индексации документов отличий никаких нет, однако, табличная верстка не всегда позволяет вывести нужную часть контента вверху кода страницы в отличие от div’ной, где при грамотном с точки зрения SEO-верстки позиционировании блоков можно добиться такого эффекта, что код, содержащий нужный оптимизированный контент, будет расположен вверху. При этом визуально на странице этот блок может располагаться где угодно – как под шапкой, так и в футере сайта. Таким образом, без ущерба дизайну страницы можно добиться дружелюбности к поисковым системам.

  1. Ненужный и сомнительный код – закрываем от индексации.

Элементы страниц, не несущие в себе смысловой нагрузки, нужно закрывать от индексации. Таким образом, повышается общая релевантность документа. Яндекс читает код, заключенный в парный тег <noindex>, но не учитывает его при ранжировании. К ненужному и сомнительному коду можно отнести счетчики статистики (liveinternet, rambler top100, bigmir и т.п.), формы голосований и опросов, отправки заявки или поиска товара, логин-панель и т.д. Встречаются страницы, содержащие все эти элементы. Доля кода SEO-контента на таких страницах будет минимальна.

Нередко можно встретить случаи, когда на сайте используется выпадающее CSS-меню. В этих случаях, как правило, также необходимо закрыть его от индексации, поскольку оно не только будет занимать значительную часть кода, но и дублироваться на всём сайте.

  1. Закомментированный код удаляем.

Просматривая исходные коды интернет-страниц, довольно часто можно увидеть закомментированные элементы. Причем иногда суммарная доля такого кода занимает более 50%. Закомментированный код может серьезно увеличить объём html-страницы, тем самым, увеличив время загрузки документа. Такой код может появляться, например, в случае, когда происходит редизайн или переверстка сайта. Верстальщик может закомментировать килобайты кода и не удалить его по окончанию работ.

  1. «Скрытые» элементы. Снижение риска наложения санкций.

Если в коде страниц сайта присутствуют скрытые от поисковых систем средствами CSS-форматирования элементы, от них также необходимо избавиться. К наиболее часто встречающимся элементам этой категории относятся «display:none» и «visibility:hidden». Если проект полностью белый и Вам нечего скрывать от пользователей, не стоит рисковать и ждать возможных санкций от Яндекса.

  1. Валидность & кроссбраузерность – Яндекс рекомендует.

В своих рекомендациях по созданию сайтов Яндекс отмечает, что код должен быть валидным и соответствовать стандартам W3C. Валидный код гарантированно будет совместим со всеми версиями всех браузеров и обрабатывается лучше, чем код, написанный не по спецификации. Проверить сайт на валидность кода можно на сайте http://validator.w3.org/ .

На поведенческие факторы существенное влияние может оказать некроссбраузерная верстка. Сайт должен одинаково хорошо отображаться во всех современных браузерах при разных разрешениях. Довольно часто можно увидеть, когда браузер Internet Explorer некорректно отображает содержимое сайта, причем отличия с Firefox и Opera кардинальные. Если на таком сайте процент пользователей IE составит 20%, то вероятность того, что показатель отказов значительно увеличится, возрастает. Пользователь не проведет много времени на таком сайте, вероятно, сразу же закроет вкладку и никогда не вернется на сайт повторно. Верстку сайта следует поручать профессионалам, для которых понятия «валидность» и «кроссбраузерность» – не пустые звуки.

  1. Оптимизация картинок под web.

Этот пункт относится больше к юзабилити, но не сказать о нем нельзя. Некоторые вебмастера не уделяют оптимизации картинок под web должного внимания. Тем не менее, каждый пользователь интернета хоть раз попадал на сайт, где текстовый контент загружался быстро, а графические изображения открывались с огромным трудом.

Выяснялось, что дело не в не самой быстрой скорости подключения к интернету, а в том, что кажущиеся мини-картинки на самом деле имеют огромные разрешения, но вместо того, чтобы сжать изображение в графическом редакторе, верстальщик в коде страницы прописал атрибутам картинок «width» и «height» значения, в 15 раз, меньшие, чем реальное разрешение фотографий. Иногда доходит до того, что в веб-документе используют изображения в формате .bmp, как известно, имеющие гораздо большие объёмы в сравнении с идентичными изображениями в форматах .jpg или .gif. В качестве примера можно привести страницу о популярном сейчас биатлоне – http://magdalena-neuner.narod.ru/nowfoto.html . Чтобы посмотреть в подгружаемом фрейме все фотографии, пользователь вынужден будет скачать порядка 20 Мб трафика, поскольку 90% изображений там выполнено в bmp-формате.

Как быть и что делать в нынешних условиях?

 В большинстве случаев, на практике выходит так, что клиент заказывал создание сайта в одной веб-студии или у фрилансеров (к сожалению, данные категории не всегда имеют правильное и современное представление о SEO-верстке), а продвигать решил в одной из SEO-компаний, которые, как правило, такие проблемы не решают и продвигают то, что есть своими «конвейерными» методами. В успешной SEO-кампании в Яндексе в нынешних реалиях мелочей не бывает. Поэтому специалисты, оказывающие профессиональные услуги продвижения сайтов по высококонкурентным запросам обязательно должны иметь в своём арсенале отдел программистов и верстальщиков, а также оказывать и услуги по созданию сайтов. Заказчикам, в свою очередь, желательно ориентироваться на подрядчиков, успешно занимающихся и созданием, и продвижением сайтов одновременно или, как минимум, имеющих хорошую техническую поддержку.

Стоит отметить, что оптимизация кода страниц не гарантирует повышения позиций по ключевым запросам, но не уделять этому внимания в условиях MatrixNet и поведенческих факторов нельзя, а работать над этим нужно уже сейчас.

 

Источник: seonews.ru

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Одноклассники
Опубликовать в Яндекс
Опубликовать в Мой Мир

Рекомендуем ещё