Данный материал не претендует на открытие чего-то нового, и для SEO-специалиста таковым не является: он рассчитан, прежде всего, на разработчиков сайтов, которые не по злому умыслу, но по незнанию или по небрежности допускают иногда довольно существенные ошибки при разработке. Да, именно разработчики являются отцами сайтов, имеющих порой кучу недочётов, и которые впоследствии могут оборачиваться для владельцев неоптимальными расходами на поддержку и продвижение, а также не дающие ожидаемого экономического эффекта.

Иногда встречаются такие парадоксальные ситуации, когда веб-студия, давно работающая на рынке и выпустившая свыше сотни сайтов, сама имеет технические проблемы с сайтом, а также проблемы с юзабилити, что существенно снижает количество контактов и заказов с сайта. Ровно по этим причинам в данной статье будут рассмотрены некоторые технические аспекты, которые необходимо учесть с самого начала, приступая к разработке сайта, дабы облегчить в дальнейшем жизнь самому сайту, его владельцу, а заодно и оптимизатору, который будет его продвигать.

Вёрстка

Какую вёрстку использовать – блочную, табличную или сразу обе, разницы нет. Однако у блочной вёрстки есть некоторые преимущества, которые заключаются в меньшем объёме (весе) конечного HTML документа на 30-60%. При этом встречающиеся табличные данные, разумеется, удобнее помещать в таблицу. Главное правило тут – чем проще, тем лучше, учитывая попутно и тот факт, что в дальнейшем с вашим кодом, возможно, будут работать ваши коллеги – нужно уважать их время и глаза.

Нет необходимости писать лишние мета теги – для нормального функционирования необходимо и достаточно использовать TITLE и DESCRIPTION. Иногда может возникнуть необходимость использования мета тега <META NAME=»ROBOTS» CONTENT=»…» />, но по умолчанию писать его со значениями INDEX, FOLLOW (если страница не запрещается к индексации) не обязательно: роботы поисковиков и так выполняют эту инструкцию без указаний.

Свойства Html-элементов страницы, оформленные с помощью CSS (что вообще очень желательно делать), кроме небольших частностей, необходимо выносить во внешний CSS файл. Код JavaScript по возможности тоже.

Юзабилити

Удобство использования сайта и всех его сервисов существенно влияет на конверсию, поэтому, необходимо сразу учитывать факторы, влияющие на юзабилити. Тема юзабилити, на самом деле, очень обширная и в рамках одной статьи невозможно осветить все аспекты, да и не нужно это: в сети есть хорошие материалы по теме, например, переводные статьи на webmascon`е, там же есть и подробные чек-листы для тестирования юзабилити сайтов.

Несколько основных правил.

Необходимо сразу продумывать структуру сайта (и навигации) таким образом, чтобы она была предельно проста и интуитивно понятна. Это также касается каталога товаров или услуг на сайте – его архитектура должна быть максимально проста и удобна. Возле каждого товара должна быть указана стоимость и кнопка или ссылка, побуждающая купить или сделать заказ. Для удобства пользования каталогом желательно делать возможность сортировки товара, а страницы результатов сортировки сразу закрывать от индексации в robots.txt , чтобы не плодить лишние страницы в индексе поисковиков.

Оформление товара должно происходить максимально просто, без излишних действий со стороны покупателя. То же самое касается работы вообще любых форм на сайте, будь то форма заявки, заказа, контакта, анкеты и любая другая. При отправке формы пользователю нужно выдавать на видном месте сообщение, что заявка получена, и время, в течение которого менеджеры компании свяжутся с покупателем, а также способы, с помощью которых с ним свяжутся. Не нужно создавать кучу никому не нужных полей в форме – желательно придерживаться необходимого минимума: имя, email, комментарий, опционально телефон и название компании.

Желательно, особенно если сайт большой, делать поиск по сайту. При этом поле поиска желательно располагать на видном месте – лучше в верхней части страницы. Результаты поиска должны быть корректными, найденные слова лучше выделять для удобства. Также не стоит игнорировать тот факт, что люди делают иногда запросы с опечатками и ошибками – будет отлично, если поиск будет это учитывать.

Сайт должен корректно отражаться в разных устройствах и в разных браузерах при разных разрешениях экрана и при разных размерах шрифтов. То же самое касается и отображения в мобильных устройствах, потому, что мобильный интернет развивается достаточно интенсивно и игнорировать этот факт нецелесообразно.

На сайте обязательно должна быть страница с подробными контактами, а если будет ещё и схема проезда, то будет вообще отлично. Кроме того, номера контактных телефонов необходимо дополнительно указывать в шапке сайта в текстовом виде – это само по себе является побуждающим элементом, а кроме того очень удобно для пользователей, которые пришли на сайт с мобильного устройства.

Подача и структура текста должны стремиться к простоте: текстовую информацию необходимо делить на абзацы, использовать списки для перечня и т.д. Самую важную информацию необходимо располагать в первом экране (если страница длинная), а лучше в самом верху. Не нужно писать лишнего – всё должно быть лаконично, внятно и просто, если, конечно это не статья, обзор и т.д.

Если страница имеет в длину несколько прокруток, то необходимо делать внизу альтернативную навигацию.

Обработка 404 ошибки. Многие готовые движки имеют возможность настраивать кастомизированную 404 страницу. Самым оптимальным будет сразу настроить редирект в .htaccess с 404 на приоритетные разделы: главная, каталог, карта сайта. Это позволит пользователю, попавшему на сайт по кривой ссылке или по кривому «type-in» быстро сориентироваться на сайте и быстро найти нужную информацию.

Выполняя аудит сайта, довольно нечасто можно встретить сайты, по которым можно сказать, что над юзабилити думали: не нужно этим пренебрегать – необходимо памятовать о судьбе сайта и о его посетителях.

Карта сайта

Многие движки сайтов имеют возможность динамически создавать Html-карту сайта. Html-карту сайта создавать необходимо, так как, во-первых, по ней легко разобраться в структуре сайта, понять где быстро найти нужную информацию (что может быть актуально для посетителей, попавших на неё по редиректу с 404, а во-вторых, наличие такой карты позитивно влияет на равномерность и скорость индексации сайта, что особенно важно для крупных проектов, например интернет магазинов, где информация по товарам может часто меняться, и очень желательно, чтобы страницы с новым товаром как можно быстрее попадали в индекс поисковиков. Есть один момент, который нужно учитывать при создании Html-карты, который касается крупных сайтов. Это ограничение на количество индексируемых ссылок на странице: во всяком случае, есть информация от Яндекса, что не рекомендуется делать на странице карты больше 1024 ссылок.

Цитата из письма:

Есть ограничение на количество гиперссылок, которые могут находиться на странице. Как правило, страницы с большим числом ссылок не предназначены для людей и часто содержат техническую информацию, автоматически созданную скриптом. В данный момент ограничение составляет 1024 ссылки на страницу.

Поэтому, если карта может получиться очень большой, необходимо делить её на несколько страниц.

Помимо Html-карты сайта не лишним будет так же динамически генерировать XML карту сайта – роботы Google её жалуют, как и роботы Яндекса.

О протоколе sitemap можно почитать по следующим ссылкам:

  • http://www.sitemaps.org/ru/protocol.php
  • https://www.google.com/support/webmasters/bin/topic.py?topic=8467

При создании XML карты для роботов Яндекса целесообразно сделать указание на расположение карты в файле robots.txt:

Sitemap: http://domain.ru/sitemap.xml

Дубликаты страниц

Дубликаты (или просто дубли) – это страницы сайта, имеющие разные адреса и одинаковое содержание. Из-за того, что на сайте создаются дубликаты, в индексе поисковых систем начинают плодиться страницы с одним и тем же контентом, что: засоряет выдачу поисковых систем, негативно отражается на нормальной индексации сайта из-за того, что роботы поисковиков имеют квоты для каждого сайта на скачивание страниц за один заход, создаёт дополнительную нагрузку на сервер из-за более частого обращения поисковых роботов (и увеличивает исходящий трафик, кстати), что актуально для крупных проектов.

Созданием дублей грешат многие сайты в интернете, и если для небольших сайтов разница в количестве проиндексированных страниц может быть невелика, то у больших проектов она может достигать десятков и даже сотен тысяч страниц. Несмотря на то, что в настоящий момент поисковые системы разрабатывают алгоритмы борьбы с дубликатами, всё же лучше с самого начала позаботиться о том, чтобы их не было.

Для поисковых систем имена доменов с WWW и без WWW могут считаться разными. Из-за этого в индексе можно видеть одинаковые страницы одного и того же сайта как с WWW, так и без. Рано или поздно, конечно, может произойти склейка доменов, т.е. поисковик сам определит для себя главное зеркало и будет показывать его в результатах поиска, но лучше это сделать самостоятельно с самого начала, так как заранее неизвестно, понравится выбор поисковика или нет. Самым радикальным и наиболее оптимальным средством является организация редиректа с неосновного зеркала на основное. Например, если в индексе желательно видеть как основное зеркало сайт без WWW, то делается 301 редирект с домена с WWW на домен без WWW. Соответственно, при простановке ссылок на сайт в дальнейшем, необходимо ставить их на нужное зеркало. Для Яндекса также будет полезным добавить сайт в каталог Яндекса в том виде, в котором определёно главное зеркало. Также, для Яндекса можно дополнительно добавить директиву Host: glavnoe_zerkalo.ru в файл robots.txt.

Очень часто распространён другой вид дубликатов, которые появляются в результате использования идентификаторов сессий, типа PHPSESSID и т.д. Такие дубли – настоящий бич и их нужно избегать. Делать это нужно сразу либо на уровне движка, либо с помощью 301 редиректа с адресов, содержащих сессии на адреса нормального вида.

Также условно можно назвать дубликатами страницы с результатами сортировки товаров в каталоге. Такие страницы нужно сразу закрывать от индексации, например, с помощью robots.txt или с помощью мета тега <META NAME=»ROBOTS» CONTENT=»NOINDEX, NOFOLLOW» />.

Ещё один тип дубликатов, встречающийся, как правило, на крупных проектах, образуется вследствие растянутости по времени разработки, большой команды разработчиков, возможной текучки кадров и т.д., когда каждый решает задачу по своему, а общего понимания структуры сайта нет. На практике попадаются проекты, где одна страница может иметь два и даже три разных адреса. Тут рецепт один – при работе над крупными проектами необходимо очень тщательно подходить к архитектуре сайта и подробно инструктировать разработчиков.

Как искать дубликаты.

Если разработка ещё ведётся и позволяют сроки, то, как вариант можно делать это на тестовой площадке, дождавшись полной индексации сайта, предварительно добавив его в поисковики вручную с помощью специальных форм, например – http://webmaster.yandex.ru. После индексации сайта можно сравнить разницу в количестве проиндексированных страниц в разных поисковиках. Существуют разные сервисы и софт, с помощью которых можно это сделать. Например, удобно использовать плагины к браузеру Page Promoter и SeoQuake или бесплатную программу Site-Auditor.

После обнаружения разницы в числе проиндексированных страниц всё остальное делается глазами, просматривая результаты поиска и отыскивая типичные дубли. Однако следует учитывать, что поисковики могут учитывать поддомены сайта как разделы основного сайта и из-за этого также могут быть расхождения в количестве страниц в индексе, например в Яндексе одно, а в Рамблере другое.

В любом случае, после некоторого срока после сдачи сайта заказчику желательно проверить равномерность индексации.

Поиск по сайту

Часто, делая аудит сайта и анализируя индексацию сайта поисковиками, можно обнаружить в индексе страницы с результатами поиска по сайту, что также негативно влияет на равномерность индексации и может создавать дополнительные нагрузки на сервер. Такие страницы также необходимо сразу закрывать от индексации в robots.txt.

Движок сайта

Движок сайта можно использовать на свой вкус, но учитывать при этом, что он должен удовлетворять возможностям реализовать описанные выше факторы. Кроме того, в обязательном порядке в движке должна быть возможность редактирования элементов TITLE и DESCRIPTION для каждой отдельной страницы.

Robots.txt

Файл robots.txt – это обычный текстовый файл, который располагается в корне сайта и предназначен для управления индексацией сайта с помощью специальных указаний для поисковых роботов. Этот файл можно сразу использовать для закрытия от индексации ненужных разделов: пользовательской информации, результатов поиска, административных разделов, страниц регистраций и т.д. Подробнее про robots.txt можно почитать тут – http://robotstxt.org.ru/.

Last-modified

Сервер сразу необходимо настраивать так, чтобы он выдавал параметр last-modified. Это параметр актуален, в частности для Яндекса. Если last-modified отсутствует, то в результатах поиска Яндекса рядом со ссылкой на страницу не будет показываться дата, а при сортировке результатов по дате сайт не будет виден большинству пользователей. Кроме того, робот поисковой системы не сможет получить информацию о том, обновилась страница или нет, а учитывая то, что количество страниц скачиваемых роботом за одну сессию ограничено, изменившиеся страницы будут реже переиндексироваться.

Битые ссылки

Некорректно работающие ссылки негативно влияют на индексацию сайта, поэтому после окончания работ над сайтом желательно проверить его с помощью какого-нибудь сервиса. Например, можно использовать бесплатную программу Xenu.

Хостинг

Хостинг каждый выбирает, полагаясь на свои предпочтения и вкусы. Однако бывает так, что крупная хостинговая компания радует лишь до первой проблемы, которую потом бывает сложно решить по нескольку дней из-за забюрократизированности структуры компании. Поэтому стоит очень внимательно относиться к подбору хостинга для своего клиента. Помочь в этом сможет hostobzor.ru – главное не полагаться только на рейтинги хостингов, но и внимательно почитать отзывы пользователей на форуме.

Нельзя сказать, что все подряд вебстудии допускают описанные выше недочёты: во многих студиях есть отделы оптимизации сайтов, и там при разработке учитывают эти факторы, но факт остаётся фактом – в интернете много сайтов с ошибками и не все уделяют должное внимание соблюдению данных условий. Выполняя эти несложные правила можно делать по-настоящему дружественные и для пользователей и для поисковых систем сайты. Будем надеяться, что разработчики проникнутся любовью и уважением к своим заказчикам и облегчат жизнь им и их сайтам в дальнейшем.

 

Источник: seonews.ru

Поделиться в соц. сетях

Опубликовать в Google Plus
Опубликовать в LiveJournal
Опубликовать в Одноклассники
Опубликовать в Яндекс
Опубликовать в Мой Мир

Рекомендуем ещё