Master-X
Регистрация
|
Вход
Форум
|
Новости
|
Статьи
Главная
»
Форум
»
Поисковые Системы
»
Тема:
Задачка по индексации большого сайта
Новая тема
Ответить
цитата
24/11/10 в 03:16
kit
Есть большой сайт. Недавно Гугл проиндексировал много его страниц и показал в выдаче по большому количеству низкочастотников. Я обратил внимание на увеличение показателя отказов для поискового трафика, Стал разбираться, и сделал интересное наблюдение: по аналогичным запросам показатель отказов может различаться в разы.
1) model-name-1 nude - показатель отказов = 35%
2) model-name-2 nude - показатель отказов = 75%
Оказалось, что количество конетнта на сайте во втором случае маленькое, а в первом большое. Юзеру не нравится, что мало, и он сразу уходит.
И тут я подумал, а что если закрыть от индексации страницы моделей, по которым мало контента? Это улучшило бы показатель отказов на сайте, и вероятно улучшил бы позиции в Гугле для всего сайта.
А с другой стороны, Гугл ведь сам умеет определять интересность страницы для сурфера и сам её понизит в выдаче, если она не привлекает интереса.
Как быть?
цитата
24/11/10 в 03:39
EllGree
kit писал:
Это улучшило бы показатель отказов на сайте, и вероятно улучшил бы позиции в Гугле для всего сайта.
Я искусственно улучшал показатели отказов, кол-ва посещенных страниц и времени, проведенном посетителем на сайте. В разы.
Это никак не повлияло на позиции в Гугле для сайта целиком.
Общее впечатление, что поисковику Гугла просто наплевать на эти показатели в аналитике.
цитата
24/11/10 в 03:49
EllGree
Экспериментировал с октября 2009 по январь 2010
цитата
24/11/10 в 03:54
EllGree
Вдогонку:
цитата
24/11/10 в 04:04
kit
Так так, интересно.
А как ты показатель отказов улучшал?
Судя по графику ты загнал его почти в ноль!
Такое возможно если закрыть сайт от новых юзеров и показывать его только букмарщикам.
Еще мне показалось, что для появления результата нужно ждать побольше чем 60 дней, например пол года.
Еще предположение: Гугл не увидел какой-то динамики в аудитории сайта, и поэтому наплевал на улучшение показателей. Растет постоянная аудитория сайта - значит подниматьь его в выдаче. Может так он думает?
цитата
24/11/10 в 04:20
Sergeyka
kit:
может есть смысл как на тубах сделать? страница где мало контента на ней подложить немного контента типа мувики или контент по данной теме?
цитата
24/11/10 в 04:33
kit
Мысль хорошая, но опасаюсь наплодить почти дубликатов. С учетом того, что Гугл проиндексировал около 200К страниц, только этой напасти мне еще не хватало, как улететь в сопли. Я такмпонимаю, большинство страниц и так окажется в соплях. Что-бы все 200К были в основном индексе - слишком много трастовости и популярности должно быть.
цитата
24/11/10 в 04:49
EllGree
kit писал:
Так так, интересно.
А как ты показатель отказов улучшал?
Судя по графику ты загнал его почти в ноль!
Да, практически ноль. Сделал элементарно:
Баннер крутится в ифрейме. Баннером является страница сайта с гугланалитикой.
При заходе на страницу баннер подгружается сразу (уже 2й клик, отказы идут в ноль). Потом рандомно через 1-3 минуты страница баннера меняется (увеличивается показатель страниц на посещение).
kit писал:
Еще мне показалось, что для появления результата нужно ждать побольше чем 60 дней, например пол года.
Возможно я поторопился, но и через полгода сайт не ощутил каких-либо изменений отношения к нему Гугла.
Кроме того, я и раньше баловался с этими показателями, например, перевод линковки сайта с сабдоменов на один домен дает похожий всплеск показателей, но при этом падает кол-во посещений -- если не указать в параметрах встроенного JS специально, Гугл расценивает переход на сабдомен как уход одного посетителя, плюс приход другого.
В этом случае эксперимент длился много дольше, но результат аналогичный -- ноль реакции.
kit писал:
Еще предположение: Гугл не увидел какой-то динамики в аудитории сайта, и поэтому наплевал на улучшение показателей.
Это больше похоже на правду. Но я именно об этом и говорил.
цитата
25/11/10 в 06:29
Lenskiy
Закрывать от индексации ничего не надо. Гугл не любит это дело. И даже специальный тег rel=canonical придумал. Что бы люди не закрывали от индексации дублированный контент.
цитата
01/12/10 в 17:27
iww
а чего вы так боитесь отказов?
Даже ж в книге по аналитиксу написано, что большйо процент не означает плохо
вот сейчас - я ищу как купить билеты за вебмани, нашел пару блогов, детально расписывающие такие сайты и критикующие их, оба блога - про деньги, типа moneynews,
дык остальные статьи я там читать не буду, сейчас мне есть чем заняться и так, но из этого не следует, что страница нерелевантная и бесполезная для меня
цитата
01/12/10 в 17:54
kit
Так если ты зашел на сайт, побыл на нем, и потом быстро посетил одну из его страниц, и затем ее закрыл. Такое разве чхсчитается в отказы? Я полагаю, что отказ, это когда ты зашел на сайт, и сразу ушел с него.
цитата
01/12/10 в 20:36
sergio21
kit писал:
Так если ты зашел на сайт, побыл на нем, и потом быстро посетил одну из его страниц, и затем ее закрыл. Такое разве чхсчитается в отказы? Я полагаю, что отказ, это когда ты зашел на сайт, и сразу ушел с него.
если не ошибаюсь, за отказ считается либо пребывание на сайте менее 30 секунд, либо, если юзер не пошел дальше первой страницы. (где-то встречал такое полуофициальное определение.)
вот только непонятно, как в этом случае считать отказы для сайтов-одностраничников. наверное, все-же общее время пербывания на сайте берется за основу.
цитата
02/12/10 в 14:08
iww
господа, при всем уважении
http://web-analytic.ru/neizvestnie-fakty-o-pokazatele-otkazov-v-google-analytics/
"время на сайте" Аналитикс, увы, никак не считает,
если б считал - сколько б проблем решилось с фейковым трафиком
а так приходится ставить JS события срабатывания счетчика через 5, 10 сек и т.д.
Новая тема
Ответить
Эта страница в полной версии