Master-X
Регистрация
|
Вход
Форум
|
Новости
|
Статьи
Главная
»
Форум
»
Программинг, Скрипты, Софт, Сервисы
»
Тема:
Задать в роботс индексировать часть ссылки
Новая тема
Ответить
цитата
25/08/14 в 17:31
Nikso
Мне кажется это не возможно, но спрошу. а вдруг,
domain.com/gallery/index.html?link=
Можно ли указать в роботсе индексировать ссылку, а параметр игноривать?
цитата
25/08/14 в 18:56
ibiz
можно
сейчас за удаленным столом, но на яндексе в хэлпе были примеры, как не индексировать форумы по ссылкам с &s=asdftywrqr67123trqwrtuyqtr236
цитата
25/08/14 в 19:56
vkusnoserver
Там есть для robots.txt отдельный параметр Clean-param.
Для вашего примера будет как-то так:
Код:
User-agent: Yandex
Disallow:
Clean-param: link /gallery/index.html
Тыц
Но это для Яндекса. Для Гугла придется делать без robots
через canonical
(вот
еще разъяснения
).
цитата
26/08/14 в 08:32
Nikso
Спасибо, поперчил.
цитата
29/08/14 в 10:01
Ailk
сори что так поздно, но по собственному опыту скажу что это хуйня на постном масле. чистые ссылки рулят. Либо реврайтом решать вопрос (если постоянный параметр), либо через аякс передавать параметры. Примеры есть на форуме смарт сиджа.
цитата
30/08/14 в 02:33
vxod
Просветите плиз для чего это нужно?
цитата
30/08/14 в 06:28
Wskeal
параметр можно в Webmaster Tools запретить
canonical, судя по опыту, переиндесируется долго. Урлы с параметрами всё равно индексируются, и только потом убираются из выдачи. Если параметр постоянно меняется, то всегда будут такие страницы в индекс добавляться.
Ailk:
через аякс, это имеется в виду приставка параметра сразу после клика, решение тоже самое что из вики смарта, или какое-то другое?
Гуголь судя по всему уже и аякс читает хорошо и старается выполнять всё тоже самое, что выполняется для юзеров в браузере.
цитата
30/08/14 в 10:36
Ailk
дада, из вики смарта. Там сам хреф чистый получается, а параметры для статистики отправляются аяксом. по сути эти все линки как раз и нужны для статистики кликов. то, что гугл читает хз.
А с каноникалами да, выдрючивался с ними долго, даже прописывал "незначащий параметр", и в роботсе формат урла запрещал, и в сайт мапе все как надо было, даже нофоллоу ноиндекс вставлял в странички с параметрами... Как об стенку горох. Все равно в выдаче висят постоянно дубли. Старые удаляются да, но и новые постоянно добавляются, гемор в общем тот еще.
цитата
30/08/14 в 15:16
Wskeal
У меня если noindex, FOLOW ставлю, то страницы не индексируются, то есть всё как нужно.
Но гугловцы говорят нужно использовать что-то одно, либо каноникал, либо ноиндекс. Оба вместе не нужно так)
Новая тема
Ответить
Эта страница в полной версии