Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Универсальное написание для robots.txt как?
цитата
08/09/08 в 07:10
 DarkVoland
Есть ли универсальное решение для написания таким образом robots.txt, чтобы разрешить индексацию только главной страница, и запретить все остальное, без перечисления всех папок имеющихся на сайте?
цитата
08/09/08 в 18:20
 -=Faraon=-
Код:
User-Agent: *
Allow: /index.html
Disallow: /
цитата
09/09/08 в 08:24
 tinych
читал что allow в роботс не используется. или можно использовать?...
цитата
09/09/08 в 10:47
 Skat
вроде недавно эта фишка появилась...
цитата
09/09/08 в 20:15
 sergio21
Фишка то появилась, да вот только она не работает так, как задумывалось. Поясняю: Disallow закрывает от поисковиков (от вежливых) определенные страницы. Allow задумывалось как конкретное указание типа "Вот эти страницы проиндексируй обязательно!" Но, как говорится, дульки! icon_smile.gif
Вобщем, с помощью Disallow можно те или иные страницы закрыть. Все, что не закрыто, может быть проиндексировано. "Заставить" ботов с помощью Allow проиндексировать что либо конкретное не получится.
цитата
10/09/08 в 01:03
 DarkVoland
Всем спасибо за советы - сам тоже поковырял мануалы - вывод:
универсального решения не существует.
только ставить все папки в корне в тег Disallow.
цитата
10/09/08 в 20:36
 Mr. Frod
Вообще то цель этого файла закрыть от индексации нежелательные страницы и папки сайта. А если такой универсальный, то зачем он вообще тогда нужен?


Эта страница в полной версии