Опрос SEOmoz выявил также пять самых главных негативных факторов. Рассмотрим их.
• Сервер часто недоступен для пауков.
Поисковые движки хотят, чтобы их пользователи получали хорошие впечатления. Если ваш сайт частенько не работает, то он по определению не может обеспечить пользователю хорошее впечатление. Поэтому если паук поискового движка не может получить доступ к вашим web-страницам, то движок будет считать, что он имеет дело с сайтом низкого качества.
• Контент очень похож на другие web-страницы или дублирует их.
Поисковые движки хотят предоставлять много уникального контента. Если ваш web-сайт не богат контентом или в основном дублирует контент других web-сайтов, то это будет расцениваться как отрицательный сигнал для рейтинга.
Более подробно обсудим дублированный контент в главе 6.
• Внешние ссылки на сайты низкого качества или спамерские сайты.
Еще один способ испортить рейтинг вашего сайта – это делать ссылки на сайты низкого качества или спамерские сайты. Вообще говоря, одна плохая исходящая ссылка может и не повредить, но если вы будете делать ссылки на большое количество сайтов плохого качества, то это, несомненно, может испортить ваши рейтинги.
Еще более осложняет этот аспект то, что вы можете сделать ссылку на вполне хороший домен, который затем поменяет владельца. Возможно, что следующий владелец этого домена вовсе не является тем, на кого бы вы хотели сослаться, но, к сожалению, ничего и не знаете о том, что того сайта, на который вы вначале ссылались, больше нет, а заменил его спамерский сайт.
• Участие в схемах обмена ссылками или активная продажа ссылок.
Поисковые движки также не хотят, чтобы издатели продавали ссылки со своих сайтов для передачи авторитета ссылок (или "сока ссылок”, как это называют многие работающие в данной области). Поисковые движки не хотят, чтобы издатели участвовали в теневых схемах обмена ссылками, таких как распространение счетчиков посещений со скрытыми в них ссылками.
• Дублирование названий или метатегов на многих страницах.
Поскольку тег title является очень мощным сигналом, то нежелание создавать другие теги title может быть негативным сигналом ранжирования. Соответственно, дублирование в массовом масштабе метатегов description и keywords может потенциально рассматриваться как негативный фактор ранжирования.
Обсуждавшиеся нами до настоящего момента факторы ранжирования – это только основные факторы. Поисковые движки учитывают много других сигналов. Рассмотрим некоторые из них.
• Скорость сбора ссылок.
Если в течение некоторого времени ваш сайт приобретал в среднем по 5 ссылок в день, а затем ссылки внезапно стали приходить со скоростью 10 штук в день, то это может рассматриваться как позитивный фактор ранжирования.
С другой стороны, если скорость поступления новых ссылок падает до 2 в день, то это может быть сигналом о том, что ваш сайт стал менее релевантным. Кроме того, если ваш сайт внезапно начинает получать по 30 новых ссылок в день, то вы либо стали гораздо релевантнее, либо начали получать ссылки спамерским способом. Дьявол кроется здесь в деталях и один из самых важных вопросов – откуда приходят эти новые ссылки. Концепция учета временных факторов при анализе ссылок описана в принадлежащем компании Google патенте США, который можно найти по следующему адресу:
Либо его можно найти поиском по номеру патента: 20050071741.
• Данные по использованию.
В качестве сигнала ранжирования можно интерпретировать и другие факторы. Например, если пользователь делает щелчок на странице SERP и приходит на ваш сайт, а затем нажимает кнопку Back и щелкает по другой ссылке в том же наборе результатов поиска, то это может рассматриваться как отрицательный сигнал для ранжирования. Или если чаще щелкают по тем ссылкам, которые находятся в SERP ниже вашей, то это может рассматриваться как позитивный сигнал ранжирования для них и как негативный сигнал для вас.
Используют ли поисковые движки такой сигнал и какой вес они ему придают, неизвестно. Этот сигнал ранжирования имеет много помех и вряд ли широко применяется. Использовать его можно в основном для персонализации и для обратной связи по релевантности.
• Пользовательские данные.
Персонализация – это передний край поиска, о котором говорят больше всего, она может делаться несколькими способами. Например, поисковый движок может сделать геолокационный поиск, чтобы примерно вычислить, где вы находитесь. На основе этих данных поисковый движок сможет показать адаптированные для вашего местоположения результаты. Это полезно, например, в том случае, когда вы ищете местный ресторан.
Другой способ получения поисковым движком данных о пользователе – это создание пользователем профиля для поискового движка и добровольное предоставление некоторой информации. Простой пример – предпочитаемый язык. Если пользователь указывает, что он предпочитает португальский, то поисковый движок может подстроить результаты под это предпочтение.
Поисковые движки могут также учитывать историю поисков данного пользователя. Движок регистрирует все выполненные вами запросы. По этим данным он сможет увидеть, что недавно вы интересовались автомобилями класса люкс и сможет использовать эту информацию для настройки результатов вашего поиска по слову jaguar.
• Песочница Google.
Как мы уже упоминали в этой главе, для борьбы со спамом поисковые движки используют несколько методов. Один из методов стал известен как "песочница Google" – это фильтр, которым Google ограничивает скорость роста рейтинга PageRank для новых доменов.
Такой подход полезен для фильтрации спамерских доменов, поскольку они часто быстро исчезают. Песочница может в принципе создать такую ситуацию, когда web-сайт будет отловлен улучшенными алгоритмами (или ручным способом) еще до того, как он станет высокопроизводительным. Это как минимум увеличит стоимость работы спамеров.