Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Роботс.тхт для Яху
цитата
21/12/06 в 17:22
 Proo
В одном из топиков писал что Яху сокращает кол-во страниц проиндексированных.. похоже идет к бану или типа того.. с 500 страниц уже до 3-10 дошел на домене..

Единственное что приходит в голову это дать ему понять что страницы индексить все не надо, пусть хотя бы индекс будет.. доменов и поддоменов много, хоть какой то да будет толк..

Что из этого выйдет - не знаю.. может кто что подскажет.. и как правильно оформить это, думаю так:

User-agent: Slurp
Allow: /
Disallow: /*.html


Если у кого будут комментарии - буду благодарен.. ну и рейтинг как всегда icon_smile.gif
цитата
21/12/06 в 22:33
 Proo
Кстати забыл написать, почему хочу оставить проиндексированной только первую страницу.. думаю одна из причин это большое кол-во страниц.. и их быстрый рост.. может поможет..
цитата
22/12/06 в 11:28
 Zambrotta
Привет. Насколько мне известно роботс пишеться под яндекс.
цитата
22/12/06 в 11:55
 Proo


Почему? Вот - http://help.yahoo.com/help/us/ysearch/slurp/slurp-02.html

У меня яху хватает robots.txt как безумный, по несколько раз в день..
цитата
22/12/06 в 12:09
 andreich
Zambrotta писал:
Насколько мне известно роботс пишеться под яндекс.

robots.txt пишется под все большие поисковики, в том числе и google и msn и yahoo
цитата
22/12/06 в 12:15
 Zambrotta
Сорри не знал. Думал что это яндекса фитча у гула ноиндекс или нофолоу. Жил по крайней мере с этим
цитата
22/12/06 в 12:45
 pierx
нофолоу уже у всех поисковиков, инфа такая проскакивала
цитата
22/12/06 в 12:47
 Zambrotta
По ходу все под одни стандарты подстраиваются. Вебмастеруот этого только легче. Париться особо не нужно
цитата
22/12/06 в 14:59
 XXL Fuck
роботс пишеца под все поисковики, только вот этим
Disallow: /*.html
ты запретишь индексацию вышеуказанному боту все файлы хтмл в корне, включая индекс. оно тебе надо?
может щаз у яхи апдейт сегмента базы куда твой сайт попал, вот он по новой всё индексирует, а так ты ваще яхе запретишь индексировать. имхо оставь как есть.
цитата
22/12/06 в 17:52
 Proo



Ну а как же это?

http://help.yahoo.com/help/us/ysearch/slurp/slurp-02.html

Using Wildcard Match: '*'
A '*' in robots directives is used to wildcard match a sequence of characters in your URL. You can use this symbol in any part of the URL string that you provide in the robots directive.

Example of '*':

User-agent: Slurp
Allow: /public*/
Disallow: /*_print*.html
Disallow: /*?sessionid


И вайлдакард, и Allow, и Disallow, в хелпе у Яху..
цитата
22/12/06 в 19:23
 Proo
не то написал.. потерто.
цитата
23/12/06 в 08:53
 XXL Fuck
ну что там не так?
там популярно расписано что зна * заменяет всё остальное и примеры запрета индексации страниц по маске, а так как ты сделал ты просто запретил индексацию всех хтмл паг в корне.

правила роботса для всех поисковиков одинаковые.

яха не хавает роботс как бешенный, просто чекает его и если ты его просто удалишь то нчё страшного не произойдёт.
цитата
25/12/06 в 22:38
 Proo
> а так как ты сделал ты просто запретил индексацию всех хтмл паг в корне.


че так сурово то.. корень же я разрешил

Allow: /
цитата
26/12/06 в 00:22
 XXL Fuck
корень да, но по ходу закрыл все хтмлы в корне, т.е. если у тебя там есть рнр или ещё чё, то всё ок, а вот хтмлы похерил.


Эта страница в полной версии