|
Как работают роботы (spiders) поисковых машин Введение Эта статья вовсе не является попыткой объяснить, как работают поисковые машины вообще (это know-how их производителей). Однако, по моему мнению, она поможет понять как можно управлять поведением поисковых роботов (wanderers, spiders, robots - программы, с помощью которых та или иная поисковая система обшаривает сеть и индексирует встречающиеся документы) и как правильно построить структуру сервера и содержащихся на нем документов, чтобы Ваш сервер легко и хорошо индексировался.
Формат файла /robots.txt.
Записи (records) файла /robots.txt
Пример 2:
айл /robots.txt содержит две записи. Первая разрешает поисковым роботам Copernicus и Fred индексировать весь сервер. Вторая - запрещает всем и осебенно роботу Rex индексировать такие директории и файлы, как /tmp/, /tea-time/, /top-cat.txt, /traverse.this и т.д. Это как раз случай задания маски для директорий и файлов.
ROBOTS мета-таги
Мета-таг DOCUMENT-STATE может быть полезен для этого. По умолчанию, этот мета-таг принимается с CONTENT=STATIC. <META NAME="DOCUMENT-STATE" CONTENT="STATIC"> Как исключить индексирование генерируемых страниц или дублирование документов, если есть зеркала сервера?
|
|||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|