Привлечение целевых посетителей и использование в этих целях поисковых систем как источников качественного трафика - одна из приоритетных задач коммерческого ресурса.
В настоящее время продвижение сайтов является наиболее эффективной рекламой в интернете. Это нашло отражение в специальной литературе, где наиболее актуальные статьи посвящены позиционированию сайтов в поисковых системах.
Подавляющее большинство авторов рекомендует учитывать, каким образом поисковики определяют релевантность страниц, так как сайты в результатах поисковых запросов располагаются в порядке убывания релевантности. По различным оценкам существует от 40 до 80 факторов ранжирования. Наиболее значимые из них уже давно многократно и подробно описаны. Тема хорошо освещена в статьях (см.список), тем не менее, регулярно "сочиняются" новые заметки, которые в сущности являются изложением некоторых отдельных фрагментов уже известных классических материалов.
В то же время в сети продолжают появляться сайты, разработчики которых словно не догадываются о существовании поисковых систем. Даже среди наиболее продвинутых сайтов трудно найти оптимальные с точки зрения кода, привлекательного для поисковых роботов. Очевидно отдельные мастера придают неодинаковое значение разным факторам ранжирования, явно отдавая предпочтение лишь некоторым из них. В таком случае можно попытаться определить наиболее "важный" фактор и в дальнейшем работать над его усилением.
Предположение о неком универсальном факторе подтверждается на практике простыми примерами, когда по серьёзным поисковым фразам в Rambler, Яndex, Aport, Google одновременно на первых местах стоят те сайты, чьих промоутеров я консультировал. Такие факты делают бессмысленными рассуждения о различии алгоритмов популярных поисковиков. Если сайт в каком-либо из перечисленных SE не на первом месте по необходимой фразе, это симптом того, что сайт недостаточно продвинут в целом. Остаётся только назвать этот фактор.
Это не содержимое тегов, не процент ключевых слов и даже не ссылочное ранжирование. В этом легко убедиться, наблюдая на верхних строчках результатов поиска сайты с невысоким CY. Таким образом, единственным существенным фактором, увеличивающим релевантность, является содержимое самого сайта.
Мало того - разве это когда-либо являлось секретом? Все к этому в основном и призывают: рекомендации к наполнению сайта качественной информацией существовали всегда. И сотрудники поисковых систем, отказываясь комментировать принцип работы алгоритмов, тем не менее тоже давали такой совет. Выявление качественной информации - цель алгоритмического ранжирования и именно поэтому по-настоящему продвинутый ресурс одновременно занимает лидирующие позиции в результатах основных SE.
Так работает ли каждый поисковик по своему алгоритму? И так ли важны оптимизатору технические детали реализации алгоритма конкретного движка, если другой алгоритм выдает те же позиции? Задача разработчиков алгоритма не в том, чтобы затруднить позиционирование сайта, а в предоставлении пользователю качественных услуг поиска, т.е. полнота и точность результатов.
Такие соображения к тому же вовсе не противоречат гипотезе о ссылочном ранжировании. Настоящие ссылки авторы ставят самостоятельно только на достойный ресурс. Поэтому вне зависимости от того, как алгоритм распознаёт link farm и учитывает ли программа непотизм вообще, полноценные сайты всегда будут иметь преимущество.
There is nothing more important, than the content. Нет ничего важнее содержания.