Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Запрещать в robots прямые ссылки на поисковые выдачи сайта?
цитата
02/11/17 в 10:56
 S_Flash
Т.е. поисковые запросы на сайте в контексте URL выглядят так
Цитата:
/serch.php?q=keyword

Стоит ли в robots.txt запретить
Цитата:
Dissalow: /serch.php

?
Вобще когда есть смысл запета внутренних "переходов" для сохранения веса главной страницы?
цитата
02/11/17 в 13:59
 11-11-11
S_Flash:

попробуй лучше сделать чтобы keyword прописывался в тайтл и в h1
цитата
02/11/17 в 14:19
 S_Flash
Вобще вопрос в другом.
цитата
02/11/17 в 15:15
 Kludge
Цитата:
Disallow: /search.php?q=
Disallow: /search.php
цитата
02/11/17 в 15:25
 S_Flash
Мда, не в том месте я спросил! smail101.gif
цитата
02/11/17 в 15:55
 vitalich
Закрывай от индексации всё что ненужно для поисковой выдачи.

Вот пример стандартного роботса dle
User-agent: *
Disallow: /engine/go.php
Disallow: /engine/download.php
Disallow: /user/
Disallow: /newposts/
Disallow: /statistics.html
Disallow: /*subaction=userinfo
Disallow: /*subaction=newposts
Disallow: /*do=lastcomments
Disallow: /*do=feedback
Disallow: /*do=register
Disallow: /*do=lostpassword
Disallow: /*do=addnews
Disallow: /*do=stats
Disallow: /*do=pm
Disallow: /*do=search

Также теги и архивы календари факи это можно оставить для юзеров
цитата
02/11/17 в 16:00
 S_Flash
Да я знаю как закрывать. Вопрос, что можно или нужно закрывать.
цитата
03/11/17 в 15:41
 Kludge
S_Flash писал:
Да я знаю как закрывать. Вопрос, что можно или нужно закрывать.

Поиск можно и нужно закрывать. Не зря его Blogger в своих блогах закрывает в robots.txt
цитата
03/11/17 в 16:52
 aaronmaster
если страница уже есть в гугле, то закрывать через robots.txt не надо. в этом случае необходимо добавить на эти страницы robots=noindex,follow

В противном случае (если страница уже в гугле) и добавлен этот урл в robots, в дальнейшем гугль будет хранить старую версию страницы и считать ее верной, так как не сможет скачать новую. Если таких страниц много - то придет в гости панда.
цитата
03/11/17 в 21:01
 S_Flash
aaronmaster: Да но получается, что страница есть в базе гугла и с неё идут ссылки на главную через меню сайта, лого и т.д.. Оптимизируется главная страница. Или - не?!
цитата
03/11/17 в 22:27
 aaronmaster
тут нужно гуглю скормить новую версию этой страницы (если она на вашем хосте). Например через fetch as googlebot в google webmaster tools, потом проиндексировать ее там же.

Если не хочешь чтобы в будущем эта страница индексилась, то добавь на нее meta robots=noindex,follow

А главная страница тут не причем. Другое дело что если гуглю линк не понравится (касается НЕ внутренних ссылок), он может передать негатив на вашу главную.

Вообще, рекомендую отказаться от блокирования страниц посредством robots.txt, с гуглем, увы, этот файл перестал дружить. Он беспроблемно работает если был (в неизменном виде) с рождения сайта, а если были изменения - гугль сейчас хочет быть в курсе всего, что поменялось и так далее. Это ведет к тому, что если он не получит новую версию страницы - то могут быть санкции (в зависимости сколько таких страниц).

Это же касается и настройки URL Parameters в google webmaster tools.


Эта страница в полной версии