Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Гугл штормит?
цитата
03/08/14 в 17:00
 Diablo
но у фишки , да ,
начиная с 3ей паги серпа:
https://www.google.com/search?client=opera&q=site:video-one.com&…p;start=20

video-one.com/popular/Jacuzzi/1.html
A description for this result is not available because of this site's robots.txt – learn more.
цитата
03/08/14 в 17:02
 Evial
robots.txt не до пизды. Да и гугла чтобы обновить индекс надо прилично времени (6 раз сайт переделывал icon_razz.gif )
цитата
03/08/14 в 17:07
 Wskeal
Вообще-то, гугл удаляет страницы, запрещенные в robots.txt через 45 дней после обнаружения запрета.
цитата
03/08/14 в 17:13
 Evial
Спс за инфу.

# stat -x robots.txt
File: "robots.txt"
Size: 130 FileType: Regular File
Device: 0,60 Inode: 1612333 Links: 1
Access: Sun Aug 3 10:04:33 2014
Modify: Wed Jun 25 23:30:23 2014
Change: Wed Jun 25 23:30:23 2014


Через 6-7 суток проверю индекс.
цитата
03/08/14 в 17:14
 Born Leader
Объясните плиз, кто понимает, что означает: Код:
Allow: /$
знак $ в роботсе.
цитата
03/08/14 в 17:22
 vkusnoserver
Цитата:
Спецсимвол $

По умолчанию к концу каждого правила, описанного в robots.txt, приписывается '*', например:
Код:
User-agent: Yandex
Disallow: /cgi-bin* # блокирует доступ к страницам
                    # начинающимся с '/cgi-bin'
Disallow: /cgi-bin # то же самое

Чтобы отменить '*' на конце правила, можно использовать спецсимвол '$', например:
Код:
User-agent: Yandex
Disallow: /example$ # запрещает '/example',
                    # но не запрещает '/example.html'

тогда как
Код:
User-agent: Yandex
Disallow: /example # запрещает и '/example',
                   # и '/example.html'


Тыц
цитата
03/08/14 в 17:27
 spasibo1337
https://developers.google.com/webmasters/control-crawl-index/docs/robots_txt
Цитата:
$ designates the end of the URL


т.е. получается разрешить только главную пагу.
цитата
03/08/14 в 19:36
 fish_ka
мне всегда нравились вечера ахуительных историй icon_biggrin.gif

кто не слепой и не ленивый и вобще олдскул может легко понять в чем фишка trollface.png

все овнеры сайтов знают что гуглу не нравится в их сайтах - там основной тезис - сайты должны быть для людей - а не для ботов smail54.gif

а мы продолжаем лепить по старой схеме все

больше сайтов - больше кейвордов - больше страниц - больше денег - жадность фраера сгубила trollface.png

как то так

перед баном мне не кисло так СЕ сыпануло на один из сайтов я был рад - но не долго trollface.png
цитата
03/08/14 в 20:20
 XZ
Неужели и этого будет недостаточно чтобы Лемон переписал smartcj на lua icon_confused.gif Потому что предположение с роботс.тхт не актуально для моих забаненых пикс сиджей, там кастом галь-то были крохи. Тут либо lua либо осиновый кол сработали.
цитата
03/08/14 в 21:07
 XZ
fish_ka: почем рецепт? trollface.png
если серьезно, из тут отписывшихся ты вроде единственный кто реально снял бан. респект.
цитата
03/08/14 в 21:22
 sexogen
fish_ka:

сайт был забанен за pure spam ? сколько раз отправлял запрос на пересмотр и когда сняли бан ?
цитата
03/08/14 в 21:29
 fish_ka
sexogen писал:
fish_ka:

сайт был забанен за pure spam ? сколько раз отправлял запрос на пересмотр и когда сняли бан ?


да - пуре спам - сообщения в гвт появились через день после бана - бан был 18 июля - разбан вчера smail54.gif

пересмотр отправлял сначала один раз - поменяв сайт - пришел отлуп - потом переделав еще что мог и снова послал - потом через день и еще десять реквестов запулил icon_lol.gif со злости

а дальше магия smail101.gif
цитата
03/08/14 в 21:46
 XZ
fish_ka: а сколько сайтов так вытащил? не единичный ведь случай как я понимаю?
цитата
03/08/14 в 21:55
 fish_ka
XZ писал:
fish_ka: а сколько сайтов так вытащил? не единичный ведь случай как я понимаю?


6 сайтов было убито - автоматом у меня и 6ть сайтов я разбанил - так как они на одном движке trollface.png

мой частный случай не может быть общим - те бан моих сайтов может быть совсем не связан с банами других пиксовых или сжтубов - даже если была одна приичина - пуре спам

у большинства тут поубивало сайты по скриптам массово

я хз как можно что то решить в случае когда 100500 сайтов есть на одном движке итд trollface.png
цитата
03/08/14 в 23:19
 Perlover
Born Leader писал:
Объясните плиз, кто понимает, что означает:
Код:
Allow: /$
знак $ в роботсе.

Это ты как бы даёшь гуглу намёк, что тебе денег хочется smail101.gif
цитата
03/08/14 в 23:28
 Evial
Создайте, пожалуйста кто-то тему

Lua для тупых trollface.png
цитата
04/08/14 в 05:23
 Diablo
ну на морде еще вывод всего и вся яваскриптом ,
куда дальше думать icon_biggrin.gif фишка , напишу я тебе лучше в скайп trollface.png
цитата
04/08/14 в 09:22
 Nikso
Что получается в индексе только морда и страницы категорий.
Галеры с десками выгребающие СЧ и НЧ траф вне индекса. На самих галерах дески тоже удалены. Значит сидж теперь получает траф по двум трем запросам, которые есть в домене? сколько такого трафа будет то?
цитата
04/08/14 в 09:29
 Diablo
Nikso писал:
Значит сидж теперь получает траф по двум трем запросам, которые есть в домене? сколько такого трафа будет то?


ну да , как-будто на забаненый домен придет больше трафа , чем на такой =)

у нас лично на главную шло до 70-80% от всего СЕ трафа . у старых сайтов - бОльшая часть букмарщики - которая набирала домен сайта в поиске
цитата
04/08/14 в 09:29
 Diablo
Nikso писал:
Что получается в индексе только морда и страницы категорий.


категории тоже запрещены к индексу ж . только морда останется по идее с таким роботсом

edited
а , да , теперь и категории разрешены =)
цитата
04/08/14 в 09:58
 Nikso
Понятно что лучше хоть два три кея чем бан. На безрыбье и рак рыба.
цитата
04/08/14 в 10:07
 Diablo
вчера поправил роботс.тхт , 5 минут назад пришел отлуп:

"В Google поступил запрос на повторную проверку от владельца сайта http://www.domain.com/.

Мы проверили http://www.domain.com/ и пришли к выводу, что этот сайт по-прежнему нарушает рекомендации по обеспечению качества."
цитата
04/08/14 в 10:17
 LibraTeam
Это просто совпадение. У меня изначально сайты строились с подобным robots.txt, где было разрешено индексить только главную и категории. От банов это не спасает.

Также robots дублируется в meta tags в коде страницы.

Интересно другое. У нас никогда не было гуглвебмастерс и т.д. Баны тоже не запоминаю по датам, ибо сиджи воспринимаю в настоящее время как дорвеи. Дак вот вылез один твинк сайт по нормальному кею, продержался пару недель и срезало траф. Страницы в индексе были, через часа 4 уже видно было бан, страниц в индексе 0. Ну дело привычное, запускаем следующие и т.д. Но сегодня глянул что какая-то сешка болтается на этом сайте, причем идет небольшой рост. Проверил в гугле - сайт в индексе icon_biggrin.gif

Так что fish_ka оказался в нужном месте в нужное время. Какой-то откат что ли был по недавнешним банам.
цитата
04/08/14 в 10:28
 limit
Diablo II писал:
вчера поправил роботс.тхт , 5 минут назад пришел отлуп"

Тоже самое. Видимо без магии никак
цитата
04/08/14 в 13:01
 sexogen
у фишки на сайте почти на всех страницах такая надпись "just Google Video One" . Френдли сайты гугл тащит наверх. nudero начал быковать и другой поисковик раскручивать его и забанили в гугле. smail101.gif
Стр. « первая   <  196, 197, 198, 199, 200  >  последняя »


Эта страница в полной версии