Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Как сделать, чтоб гугль выкинул проиндексированные страницы?
цитата
21/11/05 в 13:25
 Coolman
Всем привет!
У меня вот такая пробема, почему-то гугль индексирует только страницы report bad link посморите сами site:http://www.jimmy-bitches.com
Вопрос! Как сделать так чтоб он убрал их из индексации? В robots.txt вроде бы закрыл папку cgi-bin, а он всё равно туда лезет.
цитата
21/11/05 в 13:43
 Coolman
Большое спасибо icon_smile.gif Надеюсь сработает icon_smile.gif
цитата
21/11/05 в 14:46
 JpS
насколько я помню, конструкция вида:
Код:
Disallow: /*?

не является стандартом и потому такой файл запросто мог быть интерпретирован гулем как неверный и проигнорироваться полностью.
цитата
21/11/05 в 16:26
 Coolman
А например, есть разница между

User-agent: *
Disallow: /cgi-bin

и

User-agent: *
Disallow: /cgi-bin/

И будет ли такое работать для гугля ?
цитата
21/11/05 в 23:44
 Mauser
Coolman, да есть. В первом случае ты запрещаешь все что с этих слов начинается, а во-втором содержимое директории.
цитата
21/11/05 в 23:50
 JpS


кстати неплохой бы вопросик "на засыпку" был бы начинающему оптимизатору. очень правильно отметил, я даже не обратил на это внимания, когда читал.
цитата
22/11/05 в 17:24
 Scooter
А если в роботс тхт закрыта папка cgi-bin и на сайте стоят ссылки вида cgi-bin/cjout.php?http://www.mydomain.com/ он просто не будет обращать внимания на такие ссылки и просто не пойдёт по ним да? проще говоря получается для него это тоже самое что и ссылка на картинку без альта...
цитата
24/11/05 в 17:31
 Stax


У меня в robots:

Код:
User-agent: *
Disallow:  /cgi-bin/
Disallow:  /admin/
Disallow:  /log/
Disallow:  /sys_log/
Disallow:  /cj_out.php


Но cjout.php всё равно проиндексировались.
цитата
24/11/05 в 17:36
 JpS
Stax писал:
У меня в robots:
Код:
User-agent: *
Disallow:  /cgi-bin/
Disallow:  /admin/
Disallow:  /log/
Disallow:  /sys_log/
Disallow:  /cj_out.php

Но cjout.php всё равно проиндексировались.


попробуй теперь явно удалить эту страницу из гугла на основоании рекомндаций отсуюда
http://www.google.com/webmasters/remove.html
в тот момент когда ты делаешь удаление чтраницы через скрипт гугля, он проверяет что страница либо 404, либо закрыта robots.txt и если все правильно - удалит. иначе выдаст ошибку с рекомендациями как это делать.
цитата
21/12/05 в 01:07
 Tonic
кул!

в букмарк!
цитата
21/12/05 в 14:56
 kit
Tonic забанен за бесмысленные сообщения.


Эта страница в полной версии