26.12.2024
23:12
Работа в Интернете
Меню сайта |
Форма входа |
Категории раздела | |
|
Поиск |
Друзья сайта |
|
Статистика |
Главная » Статьи » Мои статьи |
Поисковые системы.Поисковики являются необходимым атрибутом Интернета. Именно через них пользователь ищет интересующую его информацию, а сайты получают целевых посетителей (согласитесь, что реклама такой гарантии не даст). В связи со столь большим значением данного ресурса, для веб мастера рано или поздно встаёт вопрос, как оптимизировать свой сайт под поисковик. Я никогда не разрабатывал поисковики, а сам алгоритм поисковика всегда хранится в секрете и время от времени меняется. Как оптимизировать сайт под поисковики я не знаю. Но я решил продумать вопрос, как бы я сам писал поисковик - возможно, это выведет меня на понимание алгоритма современного поисковика. Итак. Этап 1.С чего бы я начал? – скорее всего, создал бы базу сайтов, которые проверял бы самостоятельно. Со временем я бы понял, что познать всё невозможно и попытался бы как-то оптимизировать процесс – я бы включил возможность добавления характеристик страницы в html код (описание и ключевые слова). Это очень хорошая и простая идея. Именно на эти слова и реагировал бы мой поисковик – выбирал бы из базы сайтов. На каждое слово даётся список сайтов. На этом бы этапе, так же стал бы использовать сторонне базы сайтов, чтобы пополнить свою. Этап 2.Веб мастера не дремлют. Хитрые бестии - им главное, чтобы их сайт был на верхней строчке по запросам, а, кроме того, как можно чаще, и не важно нужен он пользователю или нет (а вдруг сайт понравится). Веб мастера рано или поздно начнут жульничать, начнут добавлять ключевики не связанные с содержанием сайта. Как только эта проблема обозначилась, я должен был бы отсеять бесплатные хостинги. Для того, чтобы не выкинуть совсем сайты на бесплатных хостингах, я бы ввёл вес сайта, который бы поместил перед названием сайта. Но этого, очевидно, не достаточно. Ничего не остаётся, как начать анализировать тексты страниц сайта. Поэтому становятся важны: заглавие текста, названия пунктов и подпунктов. В остальном база сайтов формируется как и раньше. Однако, здесь, уже, к названию сайта добавляется количество значимых слов, встретившихся в названиях и вес сайта. Кроме того, анализируются ссылки – т.к. алгоритм анализа предложения с ссылкой такой же, как и алгоритм анализа заглавия текста. Этап 3. Названия – это ещё не содержание, поэтому следующим этапом становится непосредственный анализ текста в целом. На этом этапе анализ строится на количестве нужных слов в тексте. Могут быть и иные параметры, но эти параметры должны быть простыми. По-прежнему создаётся база сайтов. Однако текст может содержать большое множество значимых слов, поэтому я бы сделал две базы данных – одну на сайты, где они располагались бы по тематике, другую, на значимые слова (те, которые чаще всего спрашивают). Эти слова разбил бы по тематике, так же как и сайты. Дальше, во время поиска анализировал бы сайты. Если окажется так, что такой алгоритм работает слишком долго, то базу данных формировал бы на основе значимых слов. Т.е. каждому слову в такой базе ставится свой сайт с цифрой, показывающей, сколько раз встречается искомое слово в тексте. При запросе комбинации слов, последовательно делается поиск по словам – порядок слов указывает на их значимость, но это не значит, что они встретятся в том же порядке в тексте. Здесь могут быть некоторые усложнения алгоритма. Этап 4.Включает в себя усложнение предыдущих алгоритмов – объединение синонимов, слов с ошибками; анализ содержания (количество медицинских терминов, формул, иностранных слов, старославянских и т.п.). Появляются различные тематики в поиске. Этап 5.На этом этапе я бы начал анализировать сторонние базы сайтов. Если база сайтов окажется надёжной, то она должна придать вес соответствующему сайту в моей базе. Т.е. здесь вес сайта рассчитывается более сложно. Этот параметр может определяться по-разному, в частности, он может реагировать на процент значимых слов в тексте. Может иметь значение число посетителей сайта. На данном этапе меняется отношение к бесплатным хостингам. Бесплатный сайт легко создать, но труднее раскрутить и поддержать, поэтому, бесплатный долгоживущий сайт ценится сильнее, чем платный. Этап 6.Рано или поздно надо будет обратить внимание на плагиат, т.е. на повтор текста. Здесь анализируется, главным образом время появления статьи тем или иным способом. Это будет отражаться на весе сайта. К стати говоря, низкая уникальность в данном случае не будет гарантировать, что сайт не окажется на первых позициях. Я хочу сказать, что когда идёт анализ уникальности, то среди всех неуникальных ваш сайт может оказаться самым уникальным. Этап 7.На этом этапе алгоритм начинает варьироваться. За счёт этого оценивается приток постоянных посетителей на сайт. Т.е. здесь оценивается количество постоянных посетителей, что отражается на весе сайта. Этап 8.Всего не предусмотришь. Надо бы и дальше продолжить анализировать текст, но, к сожалению, это практически не возможно. На этом этапе начинается анализироваться «смысл» предложения, заданного в поиске. Появляются наводящие вопросы. rzninternet © 2011 | |
Просмотров: 682 | Комментарии: 10
| Теги: |
Всего комментариев: 9 | ||||||||||
| ||||||||||