Большинство пользователей интернета ищут нужную им информацию через поисковые сервера, поэтому именно такие сервера и пользуются наибольшей популярностью. Например Рамблер ежедневно посещает около 100 тыс. человек. На Yahoo! вообще приходится около 25% всех доходов от рекламы в интернете.
По некоторым данным, поисковые системы могут вам дать до 30% посетителей. Неплохо, а? Но это только в том случае, если вы имеете представление о том, как правильно в них зарегистрироваться. Мы уверены, что прочитав изложенное ниже вы поймете, как это сделать.
Многие поисковые системы объединены с каталогами - например, Yahoo!, Russia on the net или с рейтингами, как Рамблер. Поэтому, регистрируясь в поисковой системе, не забывайте про каталог или рейтинг, они могут дать вам большее число посетителей, чем непосредственно система поиска, да и региться в них быстрее.
Любая поисковая система представляет собой огромное хранилище информации. Собирают эту информацию специальные роботы - так называемые Spiders (пауки-ползуны) или Bots. Они ползают по узлам всемирной паутины и собирают информацию о каждом из них. Периодически робот возвращается на свой сервер и отдает ему собранную информацию. Там эта информация приводится в надлежащий вид, заносится в специальную базу данных и после этого может быть найдена пользователем поисковой системы.
Собственно говоря, сама регистрация в поисковике заключается в том, что робот получает приказ в ближайшее время проиндексировать данные о вашей странице. Иногда для этого требуется достаточно длительное время - до месяца.
Любой робот, как известно, - туповатое создание, поэтому вам необходимо
оказать ему посильную помощь. Делается это посредством параметров
"KEYWORDS" и "DESCRIPTION" тэга META. Вы должны вставить в HTML код
страницы такие примерно строки:
< HEAD >
.......
< META
NAME="KEYWORDS"
CONTENT="Здесь указываются (через запятую) ключевые
слова" >
< META NAME="DESCRIPTION"
CONTENT="Здесь содержится
краткое описание вашего сайта" >
.......
< /HEAD >
Ключевые слова повышают вероятность того, что "паук" внесет в базу данных поисковой машины не первые предложения или какой-либо другой кусок текста с ваших страниц, а именно те слова, которые вы напишете и которые в наибольшей степени будут соответствовать содержанию вашей страницы. Рекомендуется вводить не более 20-30 ключевых слов.
Основная проблема поисковых систем - в их базах данных содержатся сотни тысяч документов. В результате после каждого запроса пользователю выдается огромный список сайтов, в которых найдено что-либо общее с его запросом. Вероятность же того, что ваш ресурс будет находиться в начале этого списка, обычно чрезвычайно мала, а кто же станет искать вас в гуще многочисленных документов, если вы значитесь там, скажем, под номером 2999? Таким образом, ваша задача - добиться того, чтобы ваш ресурс показывался одним из первых.
Что для этого нужно? Вот список советов по этому поводу:
Существует еще один специализированный параметр тэга META, который служит для управления маршрутом "паука". Это параметр "ROBOTS", он может принимать значения index/noidex, folow/nofollow: index/noindex индексировать/не индексировать текст документа; follow/nofollow следовать/не следовать далее по ссылкам, содержащимся в документе.
Например
< HEAD >
........
< META NAME="ROBOTS"
CONTENT="index,nofollow" >
........
< HEAD >
В этом
случае "паук" проиндексирует содержание страницы, и не пойдет дальше ни по
одной из ссылок с данной страницы. Зачем это надо? Ну, например, на данной
странице расположены ссылки на полезные ресурсы, которые на вашем сервере
не лежат. Неужели вы хотите, чтобы робот ушел по одной из них и тем самым
не стал индексировать ваш сайт? Ответ понятен... Словом, тэг этот весьма и
весьма полезен. Большинство самых популярных (хотя и не все) поисковых
машин его поддерживают.
Упомянем о еще одной тонкости. Некоторые поисковые роботы, например,
робот Lycos, не проиндексируют ваш сайт, если в вашей корневой
директории нет файла с именем "robots.txt". В таких файлах обычно хранятся
"спецуказания" для роботов. Например, если на вашем локальном диске есть
некоторые директории, которые индексировать точно не надо, например,
/cgi-bin/ и /basedocs/, вы можете сделать себе такой robots.txt:
User-Agent: *
Disallow: /cgi-bin/
Disallow:
/basedocs/
В этом случае все роботы (звездочка после Юзерагента,
можно написать и конкретого робота) должны будут индексировать ваш сайт,
кроме директорий /cgi-bin/ и /basedocs/. Если вам нужно проиндексировать
весь сайт целиком, оставьте пустое место после DisAllow: . На естественный
вопрос, зачем вообще нужен robots.txt, по нашему разумению, существует
такой ответ: некоторые сервера не нуждаются в индексации их содержимого,
поскольку иногда присутствие поискового робота мешает обычным
пользователям обращаться к серверу. Или как уже было сказано, вам
совершенно не нужно, чтобы индексировалась ваша база данных, CGI
директория или страница, содержимое которой постоянно обновляется.
Таким образом, теперь вы знаете, как правильно зарегистрироваться в поисковой машине.
Стоит упомянуть о том, что на некоторых сайтах вам предлагают, заполнив одну форму, зарегистрировать вашу страничку во многих поисковиках сразу. Например это можно сделать на сайте Артемия Лебедева http://www.design.ru/free/addurl/. Хотя этот способ наименее трудоемкий, он не даст таких же результатов, какие вы получите, зарегистрировав свою страничку самостоятельно. Объясняется это тем, что большинство искалок плохо относится к такому добавлению.
Идеальный вариант - зарегистрировать каждую страницу своего сайта во всех поисковиках "вручную". Хотя многие поисковые системы обещают, что достаточно ввести только адрес первой страницы сайта, а затем робот проиндексирует все остальные, но реально роботы иногда не доходят до отдельных страниц вашего сайта и их не регистрируют.
Вот список российских поисковых систем, советую зарегистрироваться сразу во всех:
Русскоязычную страничку по понятным причинам не имеет особого смысла регистрировать в иностранных поисковиках, однако на Yahoo! и AltaVista стоит зарегиться по причине их огромной популярности. Некоторые российские пользователи ими пользуются. Если же у вас англоязычный сайт, то вам как раз надо регистрироваться в иностранных поисковых системах. Поэтому приводим здесь и их список:
Хотя есть и еще много иностранных поисковиков, вам достаточно зарегистрироваться в этих, так как процентов 95 пользователей пользуются именно ими. Это относится и к российским поисковикам - все пользуются Рамблером, Яндексом и Апортом, остальные поисковики гораздо менее популярны( подумайте, какие из них используете вы).
Но если уж вам так хочется зарегиться везде, где только можно, для этого все-таки лучше использовать автоматические регистраторы: http://www.uswebsites.com/submit/, free.submit-it.com, http://www.broadcaster.co.uk/terms.htm или какие сами найдете.
И напоследок: если вы знаете какие-либо хитрости по регистрации в поисковиках, не упомянутые у нас, пишите. Можете высказаться по этому поводу и в нашем Форуме, это даже более приветствуется!