Master-X
Регистрация
|
Вход
Форум
|
Новости
|
Статьи
Главная
»
Форум
»
Блоги и Социальные сети
»
Тема:
Блогеры какие robots.txt на WP используем?
Новая тема
Ответить
цитата
21/03/11 в 17:37
Retox
У меня такой
User-agent: Googlebot
Disallow: /*/feed/$
Disallow: /*/feed/rss/$
Disallow: /*/trackback/$
User-agent: *
Disallow: /wp-
Disallow: /feed/
Disallow: /trackback/
Disallow: /rss/
Disallow: /comments/feed/
Disallow: /page/
Disallow: /date/
Disallow: /comments/
Disallow: /?*
Disallow: /?ref=*
Бытует мнение что гугль знает структуру блогов + тег каноникал и он всё логично для себя индексит и отличает дубль от базовой записи. Что типо не стоит выёживаться. Но тот же All in one seo предлаагет архивы и теги закрыть, на счёт закрытия категорий явно перебор...
цитата
21/03/11 в 17:51
masterVIA
просто удебись что нет дублей, у меня категории открыты, но пейджинг закрыт. фиды тоже закрыты (их даже и нет, минус 1 стоит). а коменты чего закрыл? это уникальный контент к посту прицепом
цитата
21/03/11 в 17:56
masterVIA
а, это ты типа против прямых ссылок на комент, ну хз, помоему3у это минор проблема
цитата
21/03/11 в 18:07
Vyacheslav
Retox писал:
Но тот же All in one seo предлаагет архивы и теги закрыть, на счёт закрытия категорий явно перебор...
Не пойму, зачем теги закрывать?
цитата
21/03/11 в 21:35
britva
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: */trackback
Allow: /wp-content/uploads
такой на всех блогах стоит, честно говоря не думаю что robots.txt может сильно на позиции блога влиять
цитата
09/07/11 в 07:54
net666
Вопрос такой, как отключить virtual robots.txt, или как его редактировать ?
цитата
09/07/11 в 08:13
Semen_ssr
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: /category/*/*
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Allow: /wp-content/uploads
# Google Image
User-agent: Googlebot-Image
Disallow:
Allow: /*
# Google AdSense
User-agent: Mediapartners-Google*
Disallow:
Allow: /*
# Internet Archiver Wayback Machine
User-agent: ia_archiver
Disallow: /
# digg mirror
User-agent: duggmirror
Disallow: /
User-agent: Yandex
Crawl-delay: 5
Sitemap:
http://www.example.com/sitemap.xml
Лови, а там уже сам смотри что тебе отсель надо.
цитата
09/07/11 в 08:27
net666
Semen_ssr:
Прошу прощения, может я не так выразился, что в robots.txt надо я знаю. Просто в GWT "Доступ для сканера" выдается не тот файл что у меня в корне лежит, Может просто подождать и google его схавает сам ?
цитата
09/07/11 в 10:04
mr.Indi
User-Agent: Googlebot
Allow: /sitemap.xml
Allow: /sitemap.xml.gz
User-agent: *
# disallow all files in these directories
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/
Disallow: /about
Disallow: /contact
Disallow: /*.php$
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /*.gz$
Disallow: /*.cgi$
Disallow: /*.wmv$
Disallow: /*.png$
Disallow: /*.gif$
Disallow: /*.jpg$
Disallow: /*.cgi$
Disallow: /*.xhtml$
Disallow: /*.php*
Disallow: wp-*
Allow: /wp-content/uploads/
# allow Google ImageBot to search all images
User-agent: Googlebot-Image
Allow: /*
# disallow archiving site
User-agent: ia_archiver
Disallow: /
# disable duggmirror
User-agent: duggmirror
Disallow: /
цитата
09/07/11 в 10:18
Emperor
net666 писал:
Может просто подождать и google его схавает сам ?
не схавает. тебе нужен плагин, например KB Robots, он работает с виртуальным роботсом. а свой в корне потом удалишь.
цитата
09/07/11 в 11:00
net666
Попробывал.
Не очень получилось, т.е. при чтении robots.txt в браузере, все номально, читается то что надо... в GWT все по старому, он просто не обновился.... Может какое-то время долно пройти чтоб гугл его съел, Или как-то ему можно посказать что файл новый ?
цитата
09/07/11 в 17:13
Emperor
net666 писал:
в GWT все по старому, он просто не обновился
ну ты хочешь чтобы все в реалтайме обновлялось
у меня через сутки обновился, буквально неделю назад делал тоже самое.
Новая тема
Ответить
Эта страница в полной версии