Май
Популярность в сети – рутина или искусство
Для оптимизаторов раскрутка сайта в Сети равно тождественна оптимизации сайта для Поисковых систем. Как мы видели, разработчики поисковых систем вынуждены выступать в роли придирчивых экзаменаторов, дабы соблюсти интересы пользователей в качественной выдаче на запрос и оградить их от нерелевантных, но искусственно раскрученных ресурсов. В то же время, если ваш сайт имеет, к примеру, релевантность запросу на твердую «четверку», как сделать так, чтобы среди других «четверочных» сайтов именно ваш оказался в первых рядах выдачи? Здесь как в спорте – выигрывает тот, кто опытнее, способен принимать быстрые решения и лучше подкован технически.
Ссылки. Ссылки. Ссылки
Как мы уже выяснили ранее, поисковые системы так устроены, что наиболее действенный на сегодня способ раскрутить свой сайт заключается в том, чтобы повысить его цитируемость. Основной же способ повышения цитируемости сайта, это размещение ссылок на него на других ресурсах. При этом важно не только и не столько количество, сколько качество ссылки (или линка – от англ. link).
Основные требования к странице, на которой имеет смысл поставить ссылку, сводятся к следующему:
- Страница не закрыта для индексации поисковыми системами.
- Находится на тематически близком сайте.
- Страница имеет хороший Page Rank (минимум 3-4, желательно 5-6), а сайт – высокий тИЦ (чем больше, тем лучше).
- Количество ссылок на странице не более 10-15 (чем меньше, тем лучше).
Есть также требования к тексту ссылок.
- Оптимально, когда якорный текст содержит ключевые фразы, под которые оптимизируется сайт.
- Важно, чтобы использовались различные тексты для ссылок.
Некоторые поисковые машины не любят, когда появляется множество одинаковых ссылок на один и тот же сайт и, закономерно, снижают «вес» ссылок (склеивают их). Кроме того, разные якорные тексты позволяют использовать несколько ключевых фраз в различных сочетаниях.
Думать о привлекательности ссылки только для ранжирующих алгоритмов – еще одна частая ошибка. Если тексты будут достаточно привлекательными для людей, то это может привлечь на сайт некоторое количество посетителей из популярных каталогов (каталог Яндекса, Rambler Top100 и другие).
Попробуем теперь перечислить наиболее распространенные способы повышения цитируемости вашего сайта:
- Регистрация сайта в популярных каталогах;
- Покупка ссылок на сайтах с высоким Page Rank;
- Обмен ссылками с сайтами близкой тематики;
- Участие в вебрингах.
Первый способ, пожалуй, один из наиболее честных. Размещая сайт в каталогах, следует помнить, что есть наиболее важные, создающиеся и оцениваемые основными поисковыми машинами, а есть узко-специализированные, тематические. Последние, кстати, могут дать вашему сайту неплохой трафик – многие пользователи ищут информацию в упорядоченных данных таких каталогов.
Оптимизируя сайт под Google, следует разместить ссылку в каталоге Dmoz, индексируемом данным поисковиком. Более того, каталог Google – это, на самом деле, копия каталога Dmoz. Для русскоязычных сайтов важнейший каталог – каталог Яндекса. Не забывайте, что тИЦ оценивается исходя из того, насколько сайты в данном каталоге являются тематически близкими. В Рунете не так много качественных каталогов. По мнению экспертов, всего несколько сотен обладают высоким Page Rank и тИЦ. Каждый оптимизатор, обычно, имеет собственную базу данных по каталогам.
Покупка ссылок тоже весьма действенный, но отнюдь не халявный метод. Покупка ссылок имеет одно значительное преимущество – вы не должны ставить свою ссылку взамен. Однако, массовая покупка ссылок на сайтах с высоким Page Rank требует значительных капиталовложений и оправдывает себя только для коммерческих сайтов.
Наиболее же популярным способом увеличить цитируемость вашего сайта будет прямой и непрямой обмен ссылками. Самая простая схема: ты – мне, я – тебе. Сложность состоит в том, чтобы правильно подобрать нужные вам сайты. Наиболее простой и эффективный способ – задать в поисковой машине поиск по ключевым словам вашей тематики и попытаться написать письма владельцам первых десяти сайтов выдачи. Конечно, не все согласятся на обмен. Однако, если у вашего сайта качественный контент и вы не являетесь прямыми конкурентами, то обмен имеет все шансы состоятся. Общение по переписке может иметь еще один большой плюс для вас: новоявленные партнеры могут заинтересоваться в более широком сотрудничестве. Например, в размещении баннерной рекламы на вашем сайте. Тем не менее, поисковые машины стараются вычислить взаимные ссылки и понизить их «весомость» в своих расчетах. Особенно это касается специальных каталогов, которые владельцы сайтов иногда организуют, чтобы упростить обмен ссылками.
Чтобы запутать поиски взаимных ссылок, оптимизаторы придумали новый ход – создать кольцо сайтов: сайт А ссылается на сайт Б, тот, в свою очередь, на сайт В, В на Г и далее, пока Я не сошлется на А и не замкнет кольцо. Схемы бывают и более запутанными, когда одна группа сайтов ссылается на другую посредством ключевого сайта, организовавшего «кольцо». Подобные действия практически сводят к нулю вероятность нахождения их поисковыми машинами. Соответственно, ценность ссылок не будет снижена. Однако, подбор участников «кольца» также требует немало временных затрат для оценки весомости каждого сайта. Только правильный учет тематики и индексов каждого сайта позволяет получить «весомые» ссылки и поднять свой (и остальных сайтов-участников) результат в поисковой выдаче.
Как облегчить себе жизнь
Итак, пока ссылки поисковыми системами ставятся во главу угла работы оптимизатора, работа с ними требует огромных затрат сил и времени. Однако, выбор, рассылка, обмен прямой и по кругу, покупка и продажа, проверка и многое другое, что можно сделать со ссылками, особенно когда их количество исчисляется сотнями, вполне могут быть автоматизированы. Что, собственно, и было сделано разработчиками специального программного обеспечения.
Несомненно, автоматизация рутинной работы позволяет экономить время и продвигать одновременно несколько проектов, оставляя место для творчества. Последнее решительно необходимо, чтобы, как минимум, нейтрализовать «выпады» поисковых систем против оптимизаторов.
Забег в ширину
Действительно, пока оптимизаторы всячески упрощают себе жизнь, поисковые системы всячески ее усложняют, продолжая совершенствовать алгоритмы поиска и расставлять новые акценты в уже отработанных.
Подобная эволюция вполне оправдана с точки зрения пользователей поисковых систем. В то же время в истории развития алгоритмов нельзя не отметить несколько этапов, весьма поучительных для поисковиков, пользователей и оптимизаторов.
К примеру, вскоре после разработки Google Page Rank’а имел место забавный феномен Google Bomb. Владельцы сайтов «заспамили» поисковую систему путем размещения ссылок, ведущих на официальный сайт президента США Джорджа Буша-младшего. Текст ссылок содержал ключевую фразу «miserable failure», то есть «жалкий неудачник». В результате страница с биографией президента вышла на первое место по запросу «жалкий неудачник». Практика тут же получила широкое распространение и заставила Google более серьезно относиться к такому критерию, как текст входных ссылок. Таким образом сегодня, работая под поисковые системы, которые учитывают текст ссылок (практически все российские поисковики), оптимизаторы вынуждены тщательно продумывать тексты ссылок, стараясь варьировать их и использовать ключевые слова, которые есть на странице, на которую ведет ссылка. В противном случае поисковый робот может просто ее проигнорировать.
Работая на опережение и внося в свои алгоритмы новые факторы, поисковые машины в любой момент способны устроить оптимизаторам «черный день календаря», когда новая система ранжирования в один не очень прекрасный момент ставит выдачи с ног на голову. Такое несколько раз «случалось» с Яндексом. Например, в 2004 году, когда было одновременно добавлено более 10 (по официальному пресс-релизу) факторов ранжирования, а также была попытка ввести человеческий фактор для оценки релевантности результатов поиска (так называемая команда асессоров, измеряющих качество страниц по заданной методике). В данной ситуации наиболее выигрышно смотрелись профессиональные оптимизаторы, успевшие разгадать в считанные часы предложенную Яндексом загадку и вернуть своим подопечным сайтам высокий рейтинг.
Периодически поисковые машины разрабатывают нововведения, о которых оптимизаторы вынуждены много говорить, но не по существу, а по факту. Вроде есть, но как с ним работать никому до конца не ясно. К примеру, в 2005 году Google (опять Google!) анонсировал новый алгоритм, получивший название TrustRank. Основная идея – полуавтоматическим способом (то есть с присутствием на первых этапах оценки людей-модераторов) выявить «авторитетность» сайтов. По сути данный алгоритм создан для того, чтобы отделить качественные ресурсы от тех, которые с высокой вероятностью содержат поисковый спам. При этом с последних ресурсов ссылки не учитывать или учитывать с гораздо меньшим коэффициентом. Программы, позволяющей любому рассчитать значение TrustRank нет, однако принцип действия приблизительно ясен: «хорошие» сайты на «плохие» обычно не ссылаются, однако, если есть много ссылок, то шансов, что среди них попадется на «спамерский», созданный для накрутки PageRank, повышается. Работают ли в Рунете подобные механизмы? Можно ли их использовать, чтобы «пессимизировать» сайты-конкуренты? Задачка для нового поколения оптимизаторов.
Что же ждет поисковых оптимизаторов дальше? Несомненно, что то же ссылочное ранжирование очень адекватная технология, от которой поисковые машины вряд ли откажутся. Однако не надо забывать, что не ссылками едиными жив поисковик. «Внутренние» критерии релевантности, а именно то, что наиболее важно для пользователя поисковой машины, – контент, снова готовы занять достойное место в поисковом ранжировании.
Возможно, оптимизаторам придется всерьез озаботиться качественным содержимым сайта, а не прописанными под определенные запросы текстами. А уж хорошее наполнение сайтов, несомненно, пойдет на пользу всему виртуальному сообществу.
Источник: seonews.ru