Категории раздела

Вход на сайт

Поиск

Наш опрос

Имеете ли вы свой сайт?
Всего ответов: 120

Мини-чат

 
200

Статистика


Онлайн всего: 3
Гостей: 3
Пользователей: 0
Evolution
Вторник, 26.11.2024, 06:23
Приветствую Вас Гость
Главная | Регистрация | Вход | RSS

Каталог статей

Главная » Статьи » Для Web Master'a » Раскрутка

Раскрутка сайтов шаг за шагом (Часть 2)
3.7 ТИЦ и ВИЦ Яндекс
ВИЦ – взвешенный индекс цитирования – аналог PageRank, применяемый поисковой системой Яндекс. Значения ВИЦ нигде не публикуются и известны только Яндексу. Поскольку узнать ВИЦ нельзя, следует просто помнить, что у Яндекса есть собственный алгоритм оценки «важности» страниц.

ТИЦ – тематический индекс цитирования – рассчитывается для сайта в целом и показывает авторитетность ресурса относительно других, тематически близких ресурсов (а не всех сайтов Интернета в целом). ТИЦ используется для ранжирования сайтов в каталоге Яндекса и не влияет на результаты поиска в самом Яндексе.

Значения ТИЦ показываются в Яндекс.Баре. Следует лишь помнить, что ТИЦ рассчитывается для сайта в целом, а не для каждой конкретной страницы.

На практике ТИЦ можно использовать для тех же целей, что и PageRank – оценка раскрученности сайта и оценка уровня конкуренции по заданному поисковому запросу. В силу охвата Интернета поисковой системой Яндекс, ТИЦ очень хорошо подходит для оценки русскоязычных сайтов.
3.8 Увеличение ссылочной популярности
3.8.1 Сабмит в каталоги общего назначения
В Интернете существует большое число сайтов-каталогов (директорий), которые содержат ссылки на другие ресурсы сети, разбитые по тематике. Процесс добавления в них информации о своем сайте называется сабмитом (от англ. submit).

Такие каталоги бывают платными и бесплатными, могут требовать или не требовать обратную ссылку с вашего сайта. Посещаемость их очень невелика, то есть реального притока посетителей с них не получить. Однако, поисковые системы учитывают ссылки с таких каталогов, что может поднять ваш сайт в результатах поиска.

Важно! Учитывайте, что реальную ценность представляют лишь те каталоги, которые размещают прямую ссылку на ваш сайт. На этом моменте стоит остановиться подробнее. Существует два способа простановки ссылки. Прямая ссылка ставится через стандартную конструкцию языка HTML («A href=... и т.д.»). Кроме этого, ссылки можно ставить через различного рода скрипты, редиректы и т.п. Поисковые системы понимают лишь прямые ссылки, непосредственно заданные в html-коде. Поэтому, если каталог не предоставляет прямой ссылки на ваш сайт, то ценность его близка к нулю.

Не следует сабмититься в FFA (free-for-all) каталоги. Такие каталоги автоматически размещают у себя ссылки любой тематики, они игнорируются поисковыми системами. Единственное, к чему приведет сабмит в FFA – это увеличение спама на ваши е-майл адреса. На самом деле главная цель FFA в этом и заключается.

С осторожностью относитесь к обещаниям различных программ и сервисов добавить ваш ресурс в сотни тысяч поисковых систем, каталогов и директорий. Действительно полезных каталогов в сети наберется не более нескольких сотен, от этой цифры и нужно отталкиваться. Профессиональные сервисы по сабмиту работают как раз с таким количеством каталогов. Если же обещаются огромные цифры в сотни тысяч ресурсов, значит база сабмита состоит в основном из упомянутых FFA архивов и прочих бесполезных ресурсов.

Отдавайте предпочтение ручному или полуавтоматическому сабмиту – не доверяйте полностью автоматизированным процессам. Как правило, сабмит, проходящий под контролем человека, дает гораздо лучшую отдачу, чем полностью автоматический сабмит.

Необходимость добавления сайта в платные каталоги, либо проставления ответной обратной ссылки со своего сайта нужно решать отдельно по каждому каталогу. В большинстве случаев особого смысла это не имеет, однако могут быть исключения.

Сабмит сайта в каталоги не дает очень значимого эффекта, однако несколько улучшает видимость сайта в поисковых системах. Возможность эта общедоступна и не требует больших временных или финансовых затрат, поэтому не забывайте о ней при раскрутке вашего проекта.
3.8.2 Каталог DMOZ
Каталог DMOZ (http://www.dmoz.org/) или Open Directory Project является крупнейшим каталогом Интернета. Кроме того, в Интернете существует большое число копий основного сайта DMOZ. Таким образом, разместив ваш сайт в каталоге DMOZ, вы получите не только ценную ссылку из самого каталога, но и еще несколько десятков ссылок от родственных ему ресурсов. Таким образом, каталог DMOZ представляет большую ценность для вебмастера.

Попасть в каталог непросто, вернее это зависит от вашего везения. Сайт может появиться в каталоге через несколько минут после добавления, а может и много месяцев прождать своей очереди.

Если ваш сайт не появляется в каталоге в течение длительного времени, но вы уверены, что все сделали правильно и сайт подходит для каталога по своим параметрам, можно попробовать написать редактору вашей категории с вопросом о своей заявке (сайт DMOZ предоставляет такую возможность). Никаких гарантий, конечно, не дается, однако это может помочь.

Добавление в каталог DMOZ бесплатно, в том числе и для коммерческих сайтов.
3.8.3 Каталог Яндекса
Присутствие в каталоге Яндекса дает ценную тематическую ссылку на ваш сайт, что способно улучшить позиции вашего сайта в поисковой системе. Кроме того, сам каталог Яндекса способен дать некоторый трафик на ваш сайт. Объем этого трафика зависит от рубрики каталога и ТИЦ вашего сайта (в каталоге сайты сортируются по ТИЦ), в некоторых случаях трафик из каталога может быть довольно значительным

Существуют платный и бесплатный варианты добавления информации в каталог Яндекса. Конечно, в случае бесплатного варианта ни сроки, ни само добавление сайта никак не гарантируются.

В заключение еще пара рекомендаций по сабмиту в такие важные каталоги, как DMOZ и Яндекс. Прежде всего, внимательно прочитайте требования к сайтам, описаниям и т.п., чтобы не нарушить правил при подаче заявки (это может привести к тому, что ваша заявка не будет рассматриваться).

И второе – присутствие в этих каталогах есть требование желательное, но не обязательное. Если вам не удается попасть в эти директории, не стоит отчаиваться – добиться высоких позиций в результатах поиска можно и без этих каталогов, большинство сайтов именно так и делают.
3.8.4 Обмен ссылками
Обмен ссылками заключается в том, что вы со специально отведенной страницы ставите ссылки на другие сайты, сами же получаете аналогичные ссылки от них. Вообще, поисковые системы не приветствуют обмен ссылками, так как в большинстве случаев он имеет целью изменить выдачу поисковой системы и не несет ничего полезного пользователям Интернета. Однако, это эффективный способ увеличения ссылочной популярности, если соблюдать несколько простых правил.

- меняйтесь ссылками с тематически связанными сайтами. Обмен с нетематическими сайтами малоэффективен;

- перед обменом убедитесь, что вашу ссылку разместят на «хорошей» странице. То есть страница должна иметь некоторый PageRank (желательно 3-4 или выше), должна быть доступна для индексации поисковыми системами, размещаемая ссылка должна быть прямая, общее число ссылок на странице не должно превышать 50 и т.д.;

- не создавайте на сайте каталогов ссылок. Идея такого каталога выглядит привлекательно – появляется возможность меняться с большим количеством сайтов любых тематик, для любого сайта найдется соответствующая категория в каталоге. Однако в нашем случае качество важнее количества и здесь существует ряд подводных камней. Ни один вебмастер не поставит на вас качественную ссылку, если в ответ он получает ссылку-пустышку из вашего каталога (PageRank страниц из таких каталогов, как правило, оставляет желать лучшего). Кроме того, поисковые системы относятся крайне негативно к подобным каталогам, были также случаи бана сайтов за использование таких каталогов;

- выделяйте отдельную страницу на сайте под обмен ссылками. Она должна иметь некоторый PageRank, быть проиндексирована поисковыми системами и т.д. Не ставьте более 50 ссылок с одной и той же страницы (иначе часть ссылок может быть не учтена поисковыми системами). Это поможет вам легче находить партнеров по обмену;

- поисковые системы стараются отслеживать взаимные ссылки, поэтому, если есть возможность, используйте для размещения ответных ссылок другой домен/сайт, отличный от продвигаемого. Например, вы продвигаете ресурс site1.com, а ответные ссылки ставите на ресурсе site2.com – это оптимальный вариант;

- проявляйте некоторую осторожность при обмене. Довольно часто приходится сталкиваться с тем, что не совсем честные вебмастера удаляют ваши ссылки со своих ресурсов, поэтому необходимо время от времени проверять наличие своих ссылок.
3.8.5 Пресс-релизы, новостные ленты, тематические ресурсы
Этот раздел относится уже скорее к маркетингу сайта, а не к чистому seo. Существует большое число информационных ресурсов и новостных лент, которые публикуют пресс-релизы и новости на различные темы. Такие сайты способны не только привести к вам посетителей напрямую, но и повысить столь нужную нам ссылочную популярность сайта.

Если вы затрудняетесь создать пресс-релиз или новость самостоятельно, то подключайте журналистов – они помогут вам найти или создать информационный повод.

Ищите тематически связанные ресурсы. В Интернете существует огромное количество проектов, которые, не являясь вашими конкурентами, посвящены той же тематике, что и ваш сайт. Старайтесь найти подход к владельцам этих ресурсов, вполне вероятно, что они будут рады разместить информацию о вашем проекте.

И последнее – это относится ко всем способам получения внешних ссылок – старайтесь несколько разнообразить ссылочный текст. Если все внешние ссылки на ваш сайт будут иметь одинаковый ссылочный текст, то это может быть понято поисковыми системами как попытка спама.
4 Индексация сайта
Прежде чем сайт появится в результатах поиска, он должен быть проиндексирован поисковой системой. Индексация означает, что поисковый робот посетил ваш сайт, проанализировал его и занес информацию в базу данных поисковой системы.

Если некоторая страница занесена в индекс поисковика, то она может быть показана в результатах поиска. Если страница в индексе отсутствует, то поисковая система ничего не знает о ней, и, следовательно, никак не может использовать информацию с этой страницы.

Большинство сайтов среднего размера (то есть содержащих несколько десятков или сотен страниц) обычно не испытывают никаких проблем с правильной индексацией поисковыми системами. Однако, существует ряд моментов, которые стоит учитывать при работе над сайтом.

Поисковая система может узнать о вновь созданном сайте двумя путями:

- ручное добавление адреса сайта через соответствующую форму поисковой системы. В этом случае вы сами сообщаете поисковой системе о новом сайте и его адрес попадает в очередь на индексацию. Добавлять следует лишь главную страницу сайта, остальные будут найдены поисковым роботом по ссылкам;

- предоставить поисковому роботу самостоятельно найти ваш сайт. Если на ваш новый ресурс есть хотя бы одна внешняя ссылка с других ресурсов, уже проиндексированных поисковой системой, то поисковый робот в короткие сроки сам посетит и проиндексирует ваш сайт. В большинстве случаев рекомендуется использовать именно этот вариант, то есть получить несколько внешних ссылок на сайт и просто дождаться прихода робота. Ручное добавление сайта может даже удлинить время ожидания робота.

Время необходимое для индексации сайта составляет, как правило, от 2-3 дней до 2 недель, в зависимости от поисковой системы. Быстрее всех индексирует сайты поисковая система Google.

Старайтесь сделать сайт дружественным для поисковых роботов. Для этого учитывайте следующие факторы:

- старайтесь, чтобы любые страницы вашего сайта были доступны по ссылкам с главной страницы не более чем за 3 перехода. Если структура сайта этого не допускает, то сделайте так называемую карту сайта, которая позволит выполнять указанное правило;

- не повторяйте распространенных ошибок. Идентификаторы сессий затрудняют индексацию. Если вы используете навигацию через скрипты, то обязательно дублируйте ссылки обычным образом – поисковые системы не умеют читать скрипты (подробнее об этих и других ошибках рассказано в главе 2.3);

- помните, что поисковые системы индексируют не более 100-200 кб текста на странице. Для страниц большего объема будет проиндексировано только начало страницы (первые 100-200 кб.). Из этого следует правило – не используйте страницы размером более 100 кб, если хотите, чтобы они были проиндексированы полностью.

Управлять поведением поисковых роботов можно с помощью файла robots.txt, в нем можно явно разрешить или запретить для индексации те или иные страницы. Существует также специальный тег «NOINDEX», позволяющий закрыть для индексации отдельные части страницы, однако этот тег поддерживается только российскими поисковыми системами.

Базы данных поисковых систем постоянно обновляются, записи в базе могут подвергаться изменениям, исчезать и появляться снова, поэтому число проиндексированных страниц вашего сайта может периодически меняться.

Одной из наиболее частых причин исчезновения страницы из индекса является недоступность сервера, то есть поисковый робот при попытке индексации сайта не смог получить доступ к нему. После восстановления работоспособности сервера сайт должен появиться в индексе снова через некоторое время.

Следует также заметить, что чем больше внешних ссылок имеет ваш сайт, тем быстрее происходит его переиндексация.

Отследить процесс индексации сайта можно с помощью анализа лог-файлов сервера, в которых записываются все визиты поисковых роботов. В соответствующем разделе мы подробно расскажем о программах, которые позволяют это сделать.
5 Подбор ключевых слов
5.1 Первоначальный выбор ключевых слов
Подбор ключевых слов – это первый шаг, с которого начинается построение сайта. На момент подготовки текстов на сайт набор ключевых слов уже должен быть известен.

Для определения ключевых слов прежде всего следует воспользоваться сервисами, которые предлагают сами поисковые системы.

Для англоязычных сайтов это http://www.wordtracker.com/ и inventory.overture.com

Для русскоязычных adstat.rambler.ru/wrds/, direct.yandex.ru и stat.go.mail.ru

При использовании этих сервисов нужно помнить, что их данные могут очень сильно отличаться от реальной картины. При использовании сервиса Yandex Директ следует также помнить, что этот сервис показывает не ожидаемое число запросов, а ожидаемое число показов рекламного объявления по заданной фразе. Поскольку посетители поисковой системы часто просматривают более одной страницы, то реальное число запросов обязательно меньше числа показов рекламы по тому же запросу.

Поисковая система Google не дает информации о частоте запросов.

После того, как список ключевых слов примерно определен можно провести анализ своих конкурентов, с целью выяснить, на какие ключевые фразы ориентируются они, возможно удастся узнать что-то новое.
5.2 Высокочастотники и низкочастотники
При оптимизации сайта можно выделить две стратегии – оптимизация под малое число высокопопулярных ключевых слов, либо под большое число малопопулярных. На практике обычно сочетаются обе.

Недостаток высокочастотных запросов – как правило, высокий уровень конкуренции по ним. Для молодого сайта не всегда бывает возможно подняться в топ по этим запросам.

Для низкочастотных же запросов, часто бывает достаточным упоминание нужного словосочетания на странице, либо минимальной текстовой оптимизации. При определенных условиях низкочастотные запросы могут давать очень неплохой поисковый трафик.

Цель большинства коммерческих сайтов – продать тот или иной товар или услугу, либо каким-то другим способом заработать на своих посетителях. Это нужно учитывать при поисковой оптимизации и при подборе ключевых слов. Нужно стремиться получать целевых посетителей на сайт (то есть готовых к покупке предлагаемого товара или услуги), нежели просто к большому числу посетителей.

Пример. Запрос «монитор» намного более популярен и в разы более конкурентен, чем запрос «монитор samsung 710N» (точное название модели). Однако, для продавца мониторов второй посетитель гораздо более ценен, а получить его гораздо легче, так как уровень конкуренции по второму запросу небольшой. Это еще одно возможное различие между высокочастотными и низкочастотными запросами, которое следует учитывать.
5.3 Оценка уровня конкуренции поисковых запросов
После того, как набор ключевых слов приблизительно известен, следует определить основное ядро слов, под которые будет проводиться оптимизация.

Низкочастотные запросы по понятным причинам отбрасываются сразу (временно). В предыдущем разделе мы описали пользу от низкочастотных запросов, однако на то они и низкочастотные, что не требуют особой оптимизации. Поэтому в данном разделе мы их не рассматриваем.

По очень популярным фразам уровень конкуренции как правило очень высок, поэтому нужно реально оценить возможности своего сайта. Для оценки уровня конкуренции следует подсчитать ряд показателей для первой десятки сайтов в выдаче поисковика:
- средний PageRank страниц в выдаче;
- средний ТИЦ сайтов, чьи страницы попали в выдачу;
- среднее число внешних ссылок на сайты в выдаче по версии различных поисковых систем;

Дополнительные параметры:
- число страниц в Интернете, содержащих заданный поисковый термин (другими словами число результатов поиска);
- число страниц в Интернете, содержащих точное совпадение заданной фразы (как при поиске в кавычках).

Эти дополнительные параметры помогут косвенно оценить сложность вывода сайта в топ по заданной фразе.

Кроме описанных параметров, можно также проверить какое число сайтов из выдачи присутствуют в основных каталогах, таких как каталоги DMOZ, Yahoo и Yandex.

Анализ всех указанных выше параметров и сравнение их с параметрами собственного сайта позволят достаточно четко предсказать перспективы вывода вашего сайта в топ по указанной фразе.

Оценив уровень конкуренции по всем подобранным фразам, вы сможете выбрать ряд достаточно популярных фраз с приемлемым уровнем конкуренции, на которые и будет сделана основная ставка при раскрутке и оптимизации.
5.4 Последовательное уточнение поисковых запросов
Как уже говорилось выше, сервисы поисковых систем часто дают очень неточную информацию. Поэтому определить идеальный для вашего сайта набор ключевых слов с первого раза удается довольно редко.

После того, как ваш сайт сверстан и произведены определенные шаги по его раскрутке, в ваших руках оказывается дополнительная статистика по ключевым словам: вы знаете рейтинг вашего сайта в выдаче поисковых систем по той или иной фразе и знаете также число заходов на ваш сайт по этой фразе.

Владея этой информацией можно довольно четко определить удачные и неудачные фразы. Зачастую даже не нужно ждать, чтобы сайт вышел в топ по оцениваемым фразам во всех поисковых системах – достаточно одной или двух.

Пример. Допустим ваш сайт занял первое место в поисковой системе Rambler по данной фразе. При этом ни в Яндексе, ни в Google его еще нет в выдаче по этой фразе. Однако, зная процентное соотношение заходов на ваш сайт из различных поисковых систем (например, Yandex – 70%, Google – 20%, Rambler – 10%), вы уже можете предсказать примерный трафик по этой фразе и решить, подходит она для вашего сайта или нет.

Помимо выделения неудачных фраз, вы можете найти новые удачные варианты. Например, увидеть, что некоторая фраза, под которую не делалось никакой раскрутки, приносит неплохой трафик, даже несмотря на то, что ваш сайт по этой фразе находится на 2 или 3 странице в выдаче.

Таким образом, в ваших руках оказывается новый, уточненный набор ключевых слов. После этого следует приступить к перестройке сайта – изменение текстов под более удачные словосочетания, создание новых страниц под новые найденные фразы и т.д. Таким образом, через некоторое время вы сможете найти наилучший набор ключевых слов для вашего сайта и существенно увеличить поисковый трафик.

Еще некоторые советы. По статистике, на главную страницу сайта приходится до 30%-50% всего поискового трафика. Она лучше всего видна в поисковиках и имеет больше всего внешних ссылок. Поэтому главную страницу сайта следует оптимизировать под наиболее популярные и конкурентные запросы. Каждую страницу сайта следует оптимизировать под 1-2 основных словосочетания (и, возможно, под ряд низкочастотных запросов). Это увеличит шансы выхода в топ поисковых систем по заданным фразам.
6 Различная информация о поисковых системах
6.1 Google SandBox
В начале 2004 года в среде оптимизаторов обозначилось новое таинственное понятие – Google SandBox или песочница Google. Такое обозначение получил новый спам-фильтр Google, направленный на исключение из выдачи молодых, вновь созданных сайтов.

Фильтр SandBox проявляется в том, что вновь созданные сайты отсутствуют в выдаче поисковой системы практически по всем фразам. Это происходит, несмотря на наличие качественного и уникального информационного содержимого и правильно проведенную раскрутку (без использования спам-методов).

На данный момент SandBox касается только англоязычного сегмента, сайты на русском и других языках этому фильтру не подвергаются. Однако, вполне вероятно что этот фильтр может расширить свое влияние.

Можно предположить, что цель SandBox фильтра исключить из выдачи спам-сайты – действительно, ни один поисковый спамер не сможет ждать месяцы до появления результатов. Однако вместе с этим страдает огромное количество нормальных, вновь созданных сайтов.

Точной информации о том, что же конкретно представляет из себя SandBox фильтр до сих пор нет. Существует ряд предположений, полученных на основании опыта, которые мы и приведем ниже:

- SandBox – это фильтр на молодые сайты. Вновь созданный сайт попадает в «песочницу» и находится в ней неопределенное время, пока поисковая система не переведет его в разряд «обычных»;

- SandBox – это фильтр на новые ссылки, проставляемые на вновь созданные сайты. Постарайтесь заметить принципиальное отличие от предыдущего предположения – фильтр накладывается не на возраст сайта, а на возраст ссылок на сайт. Другими словами Google не имеет претензий к сайту, однако отказывается учитывать внешние ссылки на него, если с момента их появления прошло менее X месяцев. Так как внешние ссылки являются одним из основных факторов ранжирования, игнорирование внешних ссылок равносильно отсутствию сайта в выдаче поисковой системы. Какое из двух приведенных предположений более верно сказать сложно, вполне вероятно, что оба они верны ;

- сайт может находится в песочнице от 3-х месяцев до года и более. Есть также наблюдение, что сайты выходят из песочницы в массовом порядке. Т.е. срок песочницы определяется не индивидуально для каждого сайта, а для больших групп сайтов (сайты созданные в некотором временном диапазоне попадают в одну группу). Фильтр затем снимается сразу для всей группы, таким образом, сайты из одной группы пробудут в «песке» разное время.

Типичные признаки того, что ваш сайт находится в песочнице:

- ваш сайт нормально проиндексирован Google, регулярно посещается поисковым роботом;
- ваш сайт имеет PageRank, поисковая система знает и корректно отображает внешние ссылки на ваш сайт;
- поиск по адресу сайта (www.site.com) выдает правильные результаты, с правильным заголовком, сниппетом (описание ресурса) и т.д.;
- ваш сайт нормально находится по редким и уникальным словосочетаниям, содержащимся в тексте страниц;
- ваш сайт не виден в первой тысяче результатов по любым иным запросам, даже по тем, под которые он изначально создавался. Иногда встречаются исключения и сайт по некоторым запросам появляется на 500-600 позициях, что, конечно, сути не меняет.

Методов обхода фильтра практически не существует. Есть ряд предположений, о том, как это можно сделать, однако это не более чем предположения, к тому же малоприемлимые для обычного вебмастера. Основной метод – это работать над сайтом и ждать окончания фильтра.

После того, как фильтр снимается, происходит резкий рост рейтингов на 400-500 и более позиций.
6.2 Google LocalRank
25 февраля 2003 года компания Google запатентовала новый алгоритм ранжирования страниц, получивший название LocalRank. В основе лежит идея о том, чтобы ранжировать страницы не по их глобальной ссылочной цитируемости, а по цитируемости среди группы страниц, тематически связанных с запросом.

Алгоритм LocalRank не используется на практике (по крайней мере, в том виде, в каком он описывается в патенте), однако, патент содержит ряд интересных идей, с которыми, мы считаем, должен быть знаком каждый оптимизатор. Учет тематики ссылающихся страниц используется почти всеми поисковыми системами. Хотя происходит это, видимо, по несколько другим алгоритмам, изучение патента позволит уяснить общие идеи, как это может быть реализовано.

При чтении этой главы учитывайте, что в ней представлена теоретическая информация, а не практическое руководство к действию.

Основную идею алгоритма LocalRank выражают следующие три пункта:

1. Используя некоторый алгоритм, выбирается определенное число документов, релевантных поисковому запросу (обозначим это число N). Эти документы изначально отсортированы согласно некоторому критерию (это может быть PageRank, либо оценка релевантности или какой-либо другой критерий или их группировка). Обозначим численное выражение данного критерия как OldScore.

2. Каждая из N страниц проходит новую процедуру ранжирования, в результате которой каждая страница получает некоторый новый ранг. Обозначим его LocalScore.

3. На этом шаге величины OldScore и LocalScore перемножаются, в результате чего получается новая величина NewScore, согласно которой и происходит итоговое ранжирование страниц.

Ключевой в данном алгоритме является новая процедура ранжирования, в результате которой каждой странице присваивается новый ранг LocalScore. Опишем эту процедуру подробнее.

0. Используя некоторый алгоритм ранжирования отбираются N страниц, отвечающих поисковому запросу. Новый алгоритм ранжирования будет работать только с этими N страниц. Каждая страница в этой группе имеет некоторый ранг OldScore.

1. При расчете LocalScore для данной страницы выделяются все страницы из N, которые имеют внешние ссылки на данную страницу. Обозначим множество этих страниц M. При этом, в множество M не попадут страницы с того же хоста (host, фильтрация произойдет по IP адресу), а также страницы, являющиеся зеркалами данной.

2. Множество M разбивается на подмножества Li . В эти подмножества попадают страницы, объединенные следующими признаками:
- принадлежность одному (или сходным) хостам. Таким образом, в одну группу попадут страницы, у которых первые три октета IP адреса совпадают. То есть, страницы, IP адрес которых принадлежит диапазону
xxx.xxx.xxx.0
xxx.xxx.xxx.255
будут считаться принадлежащими одной группе;
- страницы, которые имеют одинаковое или схожее содержание (зеркала, mirrors);
- cтраницы одного сайта (домена).

3. Каждая страница в каждом множестве Li имеет некоторый ранг (OldScore). Из каждого множества выбирается по одной странице с самым большим OldScore, остальные исключаются из рассмотрения. Таким образом, мы получаем некоторое множество K страниц, ссылающихся на данную страницу.

4. Страницы в множестве K сортируются согласно параметру OldScore, затем в множестве K остаются только k первых страниц (k – некоторое заданное число), остальные страницы исключаются из рассмотрения.

5. На данном шаге рассчитывается LocalScore. По оставшимся k страницам происходит суммирование их значений OldScore.

После того, как расчет LocalScore для каждой страницы из множества N закончен, происходит расчет значений NewScore и пересортировка страниц согласно новому критерию. Для рассчета NewScore используется следующая формула:

NewScore(i)= (a+LocalScore(i)/MaxLS)*(b+OldScore(i)/MaxOS)

i – страница, для которой рассчитывается новое значение ранга.

a и b – некоторые числа (патент не дает более подробной информации об этих параметрах).

MaxLS – максимальное из рассчитанных значений LocalScore

MaxOS – максимальное из значений OldScore

Теперь постараемся отвлечься от математики и повторим все вышесказанное простым языком.

На первом этапе происходит отбор некоторого количества страниц соответствующих запросу. Это делается по алгоритмам, не учитывающим тематику ссылок (например, по релевантности и общей ссылочной популярности).

После того, как группа страниц определена, будет подсчитана локальная ссылочная популярность каждой из страниц. Все страницы так или иначе связаны с темой поискового запроса и, следовательно, имеют отчасти схожу тематику. Проанализировав ссылки друг на друга в отобранной группе страниц (игнорируя все остальные страницы в Интернете), получим локальную (тематическую) ссылочную популярность.

После проделанного шага у нас есть значения OldScore (рейтинг страницы на основе релевантности, общей ссылочной популярности и других факторов) и LocalScore (рейтинг страницы среди тематически связанных страниц). Итоговый рейтинг и ранжирование страниц проводится на основе сочетания этих двух факторов.
6.3 Особенности работы различных поисковых систем
Все, сказанные выше идеи по текстовой оптимизации и увеличению ссылочной популярности применимы ко всем поисковым системам в равной степени. Более подробное описание Google объясняется большим наличием информации об этой поисковой системе в свободном доступе, однако идеи, высказанные в отношении Google, в большой степени применимы и к другим поисковым системам.

Вообще, я не являюсь сторонником поиска «секретного знания» о том, как детально работают алгоритмы различных поисковых систем. Все они в той или иной мере подчиняются общим правилам и грамотная работа над сайтом (без учета каких-либо особенностей) приводит к хорошим позициям почти во всех поисковых системах.

Тем не менее, приведем некоторые особенности различных поисковых систем:

Google – очень быстрая индексация, очень большое значение придается внешним ссылкам. База Google используется очень большим числом других поисковых систем и порталов.

MSN – больший, нежели у других поисковых систем, акцент на информационное содержимое сайта.

Yandex – крупнейшая российская поисковая система. Обрабатывает (по разным данным) от 60% до 80% всех русскоязычных поисковых запросов. Уделяет особое внимание тематическим ссылкам (нетематические внешние ссылки также имеют эффект, но в меньшей степени, чем у других поисковых систем). Индексация проходит медленнее, чем у Google, однако так же в приемлемые сроки. Понижает в рейтинге или исключает из индекса сайты, занимающиеся нетематическим ссылкообменом (содержащих каталоги нетематических ссылок, созданных лишь с целью повышения рейтинга сайта), а также сайты, участвующие в системах автоматического обмена ссылками. В периоды обновлений базы, которые длятся несколько дней, выдача Яндекса постоянно меняется, в такие периоды следует отказаться от каких-либо работ по сайту и дождаться стабильных результатов работы поисковой системы.

Еще одна особенность Яндекс – различные результаты поиска в зависимости от регистра ключевых слов (т.е. «Слово» и «слово» дают разные результаты поиска).

Rambler – наиболее загадочная поисковая система. Занимает второе (по другим данные третье после Google) место по популярности среди российских пользователей. По имеющимся наблюдениям, понижает в рейтинге сайты, активно занимающиеся раскруткой (быстрое увеличение числа внешних ссылок). Ценит наличие поисковых терминов в простом тексте страницы (без выделения различными стилистическими тегами).

Mail.ru – набирающая популярность поисковая система. Использует результаты поисковой системы Google после некоторой дополнительной обработки. Оптимизация под Mail.ru сводится к оптимизации под Google.

6.4 Советы, предположения, наблюдения
В данной главе представлена информация, появившаяся в результате анализа различных статей, общения оптимизаторов, практических наблюдений и т.п. Информация эта не является точной и достоверной – это всего лишь предположения и идеи, однако идеи интересные. Данные, представленные в этом разделе, воспринимайте не как точное руководство, а как информацию к размышлению.

- исходящие ссылки. Ссылайтесь на авторитетные в вашей области ресурсы, используя нужные ключевые слова. Поисковые системы ценят ссылки на другие ресурсы той же тематики;

- исходящие ссылки. Не ссылайтесь на FFA сайты и прочие сайты, исключенные из индекса поисковой системы. Это может привести к понижению рейтинга вашего собственного сайта;

- исходящие ссылки. Страница не должна содержать более 50-100 исходящих ссылок. Это не приводит к понижению страницы в рейтинге, но ссылки сверх этого числа не будут учтены поисковой системой;

- внешние site wide ссылки, то есть ссылки, стоящие на каждой странице сайта. Считается, что поисковые системы негативно относятся к таким ссылкам и не учитывают их при ранжировании. Существует также другое мнение, что это относится только к большим сайтам с тысячами страниц;

- идеальная плотность ключевых слов. Очень часто приходится слышать подобный вопрос. Ответ заключается в том, что идеальной плотности ключевых слов не существует, вернее она различная для каждого запроса, то есть рассчитывается поисковой системой динамически, в зависимости от поискового термина. Наш совет – проанализировать первые сайты из выдачи поисковой системы, что позволит примерно оценить ситуацию;

- возраст сайта. Поисковые системы отдают предпочтение старым сайтам, как более стабильным;

- обновление сайта. Поисковые системы отдают предпочтение развивающимся сайтам, то есть тем, на которых периодически добавляется новая информация, новые страницы;

- доменная зона (касается западных поисковиков). Предпочтение отдается сайтам, расположенным в зонах .edu, .mil, .gov и т.п. Такие домены могут зарегистрировать только соответствующие организации, поэтому доверия таким сайтам больше;

- поисковые системы отслеживают, какой процент посетителей возвращается к поиску, после посещения того или иного сайта из вылачи. Большой процент возвратов означает нетематическое содержимое, и такая страница понижается в поиске;

- поисковые системы отслеживают, насколько часто выбирается та или иная ссылка в результатах поиска. Если ссылка выбирается редко, значит, страница не представляет интереса и такая страница понижается в рейтинге;

- используйте синонимы и родственные формы ключевых слов, это будет оценено поисковыми системами

; - слишком быстрый рост числа внешних ссылок воспринимается поисковыми системами как искусственная раскрутка и ведет к понижению рейтинга. Очень спорное утверждение, прежде всего потому, что такой способ может использоваться для понижения рейтинга конкурентов;

- Google не учитывает внешние ссылки, если они находятся на одном (или сходных) хостах, то есть страницах, IP адрес которых принадлежит диапазону xxx.xxx.xxx.0 xxx.xxx.xxx.255. Такое мнение происходит скорее всего от того, что Google высказывал данную идею в своих патентах. Однако сотрудники Google заявляют, что никаких ограничений по IP адресу на внешние ссылки не налагается, и нет никаких оснований не доверять им;

- поисковые системы проверяют информацию о владельце домена. Соответственно ссылки с сайтов, принадлежащих одному владельцу имеют меньший вес, чем обычные ссылки. Информация представлена в патенте;

- срок, на который зарегистрирован домен. Чем больше срок, тем большее предпочтение отдается сайту;
6.5 Создание правильного контента
Контент (информационное содержимое сайта) играет важнейшую роль в раскрутке сайта. Тому есть множество причин, о которых мы расскажем в этой главе, а также дадим советы, как правильно наполнить сайт информацией.

- уникальность контента. Поисковики ценят новую информацию, нигде ранее не публиковавшуюся. Поэтому при создании сайта опирайтесь на собственные тексты. Сайт, построенный на основе чужих материалов, имеет гораздо меньшие шансы на выход в топ поиск

Категория: Раскрутка | Добавил: taums (26.11.2010)
Просмотров: 151 | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]