русс | укр

Языки программирования

ПаскальСиАссемблерJavaMatlabPhpHtmlJavaScriptCSSC#DelphiТурбо Пролог

Компьютерные сетиСистемное программное обеспечениеИнформационные технологииПрограммирование

Все о программировании


Linux Unix Алгоритмические языки Аналоговые и гибридные вычислительные устройства Архитектура микроконтроллеров Введение в разработку распределенных информационных систем Введение в численные методы Дискретная математика Информационное обслуживание пользователей Информация и моделирование в управлении производством Компьютерная графика Математическое и компьютерное моделирование Моделирование Нейрокомпьютеры Проектирование программ диагностики компьютерных систем и сетей Проектирование системных программ Системы счисления Теория статистики Теория оптимизации Уроки AutoCAD 3D Уроки базы данных Access Уроки Orcad Цифровые автоматы Шпаргалки по компьютеру Шпаргалки по программированию Экспертные системы Элементы теории информации

SEO-оптимизация и увеличение энтропии


Дата добавления: 2013-12-23; просмотров: 405; Нарушение авторских прав


Рис. 8.10.

Рамблер

Рамблер (http://www.rambler.ru/)- это старейшая поисковая система Рунета, запущенная в 1996 году . Сегодня это крупный портал (в настоящем смысле этого слова), объединяющий множество сервисов. Можно обратить внимание на экспериментальную версию нового поиска (http://beta.rambler.ru/), разрабатываемую параллельно с работой основной (рис. 8.9):

 

Рис. 8.9. Экспериментальная версия поиска Рамблер.

Расширенный поиск обычного Рамблера также предлагает задать множество условий (рис. 8.10):

 

Рамблер также предлагает уже известные нам правила задания продвинутых запросов, включающих в себя различные условия http://www.rambler.ru/doc/help.shtml.

Десять лет назад поиск информации в Интернете напоминал детективное расследование. Тогда были разумеется, поисковые системы. Для поиска термина также нужно было набрать его в адресной строке. В куче появившихся ссылок приходилось выбирать жемчужины - сайты с нужным содержимым. Откуда же тогда брались все остальные страницы?

Представим себе, например, сайт туристической фирмы "Лето-отдых". Очень простой сайт, состоящий из нескольких страниц. На одной из них приводится описание тура в Сочи. Цены, условия, контакты - словом, все то, что нужно. Представим также себе, что таких сайтов несколько. Несколько реальных различных фирм, соответственно несколько представительств в Интернете. Реальный бизнес и его отражение в сети.

Теперь представим себе веб-мастера, который не владеет туристической фирмой, не предлагает поездки в Сочи, но умеет делать веб-страницы. Он делает одну страницу, на которую выводит кучу ссылок на сайты туристических фирм. "Отдых летом в Сочи", "Лето-отдых в Сочи", "Отдых в Сочи", "Поездки на море", "Дешевые туры в Сочи", "Условия проживания в гостиницах в Сочи" - вся страница испещрена подобными ссылками. Естественно, такая страница будет содержать как бы больше информации о поездке в Сочи, чем аскетичная страница настоящей турфирмы, предлагающей настоящие туры. Следовательно, в поисковых системах по запросу "Отдых в Сочи" она будет появляться на более ранних позициях, чем страница туристической фирмы. На "сайт" веб-мастера будут заходить много посетителей, поэтому ему остается лишь разместить там рекламу и получать за нее деньги.



Другой веб-мастер, увидев легкий доход первого веб-мастера, решил сделать свою страницу. Он изменил ее оформление, повесил еще больше рекламы, добавил те же самые ссылки - словом, сделал свой супер-каталог.

После того, как 1253 веб-мастера разместили свои каталоги, умный веб-мастер создал свой каталог. На котором стояли ссылки уже не на исходные сайты туристических фирм, а на каталоги обычных веб-мастеров. И конечно, он также разместил кучу рекламы с целью получать за нее кучу денег.

Пример умного веб-мастера оказался заразительным. Другие умные веб-мастера принялись мастерить свои каталоги каталогов, словом, процесс рос лавинообразным образом. Энтропия (хаос) увеличивается, полезной информации не прибавляется.

Что теперь ждет обычного пользователя, который набирает в поисковике "Отдых в Сочи"?. Он попадает на супер-каталог. Подождав, пока загрузится вся реклама, он ее посмотрел, затем все-таки перешел по ссылке каталога "Туры в Сочи - предложения". И снова попал в другой каталог. Перешел с другого каталога - и снова попал в каталог. Потеряв терпение и закрыв, наконец, каталоги каталогов, пользователь возвращается в окно поисковика и методично просматривая результаты, наконец, на 1000-ссылке попадает на сайт фирмы "Лето-отдых".

Понятно, что не для всех запросов был смысл создавать каталоги и каталоги каталогов. Например, нет смысла собирать ссылки на сайты синхрофазотронов и общей теории относительности. Потому что большинство пользователей не каждый день набирают такие запросы. Так (или почти так) обстояло с поиском в Интернет лет десять назад. Все были довольны, кроме самих пользователей, которые, найдя жемчужину настоящего сайта, были вынуждены записывать его, добавлять в Избранное, обмениваться ссылками - словом, тщательно беречь найденные результаты.

Понятно, что долго так продолжаться не могло. Появилась релевантность, которую придумали в компании Google и которая почти одновременно была реализована в компании Яндекс.

Релевантность (от англ. relevant) - это степень соответствия запроса и найденного результата, то есть его уместность. Полный механизм релевантности представляет собой ноу-хау поисковых компаний, которые, разумеется, раскрывать его не собираются. Но этот механизм позволяет получать конечному пользователю именно то, что он ищет. Для того, чтобы понять, как примерно работает идея релевантности, рассмотрим следующий пример.

Сайт туристической фирмы "Лето-отдых" стал очень большим. На нем публикуются мнения и отзывы туристов, предложения отелей, расписание авиарейсов в Сочи. Тысячи посетителей заходят на него каждый день, с удовольствием читают новые мнения, отзывы, разглядывают фотографии. В своих сайтах они ставят ссылки на замечательный сайт фирмы. Да, и каталоги тоже ставят множество ссылок на этот сайт. Есть еще конкурент туристической фирмы, который называется "Зима-отдых". Их сайт достаточно неплохой, но его аудитория поменьше. Поэтому и в каталогах появляется он реже.

Поисковые системы внимательно подсчитали количество ссылок на сайт фирмы "Лето-отдых", учли количество посетителей, и вывели его на первое место в результате. На второе поставили сайт "Зима-отдых". Сайты остальных фирм - в таком же порядке. Ну а каталоги, супер-каталоги и прочие каталоги-каталогов разместились на заслуженном 1000 месте, которое теперь никто и не смотрит.

В этом заключается идея расчета авторитетности страницы, которая называется (PageRank). Конечно, современная индексация страниц включает в себя множество параметров, но идея их сводится к предоставлению пользователям именно того, что они ищут.

Теперь нет смысла создавать раздражающие каталоги с рекламой и множеством ссылок. По ним все равно никто не будет ходить, потому что в поисковых системах они будут занимать крайне низкие позиции.

Для завершения картины, представим себе еще одну задачу. Владельцы сайта "Зима-отдых" захотели, чтобы в поисковых системах они были на первом месте, оттеснив сайт "Лето-отдых". Для этого они обратились к SEO (от англ. search engine optimization, SEO, поисковая оптимизация)-мастерам, которые обычно предлагают следующие подходы:

· Белая оптимизация. Это законная, честная работа над повышением ресурса в позиции. Сюда входит написание уникальных, интересных материалов, которые будут привлекать посетителей. Например, в рассматриваемом случае, опубликовать интересные статьи, советы, которые будут привлекать посетителей. SEO-оптимизаторы также исправляют содержимое страниц, добавляя необходимое количество ключевых слов, а также размещают информацию о ресурсе в каталогах самих поисковых систем.

· Серая оптимизация. Это не вполне честная работа над популяризацией ресурса. Например, если просто взять и скопировать тексты с сайта "Лето-отдых". Или договориться с другими популярными сайтами, чтобы они поставили ссылки на данный сайт.

· Черная оптимизация. Она работает, но если ее обнаруживают в поисковых системах, то раскручиваемый ресурс вообще банится или понижается в рейтинге. К методам черной оптимизации относится спам, размещение ссылки ресурса на форумах, досках объявлений, блогах, и т.д.

В целом, SEO-оптимизация конечно нужна (особенно только что созданным сайтам, аналоги которых уже есть) но и без нее работает правило - если ресурс предлагает уникальную информацию, если он новаторский и интересный, то без всяких методов раскрутки он займет свое заслуженное первое место.

Прочитать то, что думает, например, команда Яндекса об оптимизации сайтов, можно в разделе Яндекс.Вебмастер (http://help.yandex.ru/webmaster/). Также Яндекс предоставляет инструменты http://webmaster.yandex.ru/, позволяющие оценить свой сайт с точки зрения поисковых запросов.



<== предыдущая лекция | следующая лекция ==>
Google Earth | Поиск людей


Карта сайта Карта сайта укр


Уроки php mysql Программирование

Онлайн система счисления Калькулятор онлайн обычный Инженерный калькулятор онлайн Замена русских букв на английские для вебмастеров Замена русских букв на английские

Аппаратное и программное обеспечение Графика и компьютерная сфера Интегрированная геоинформационная система Интернет Компьютер Комплектующие компьютера Лекции Методы и средства измерений неэлектрических величин Обслуживание компьютерных и периферийных устройств Операционные системы Параллельное программирование Проектирование электронных средств Периферийные устройства Полезные ресурсы для программистов Программы для программистов Статьи для программистов Cтруктура и организация данных


 


Полезен материал? Поделись:

Не нашли то, что искали? Google вам в помощь!

 
 

© life-prog.ru При использовании материалов прямая ссылка на сайт обязательна.

Генерация страницы за: 0.087 сек.