Master-X
Регистрация
|
Вход
Форум
|
Новости
|
Статьи
Главная
»
Форум
»
Поисковые Системы
»
Тема:
Уникальность с неуникальностью
Новая тема
Ответить
цитата
19/03/08 в 15:07
Cosinus
возник такой вопрос - а насколько неуникальный контент мешает кусочкам уникального на том же сайте.
допустим, на сайте 500 страниц, 10 из них - уникальные, остальные - дублированый контент.
может, лучше страницы с дублировнным контентом спрятать джаваскриптом? или они не помешают уникальным страницам?
всех рейтингом осыплю
цитата
19/03/08 в 22:08
RavE
А зачем закрывать неуникальный контент? Чтобы гугл считал твой рес полностью уникальным? ;)
Я думаю, что не нужно ничего закрывать.. Пусть все индексирует!
ИМХО конечно же.. Может СЕО гуру подскажут что-то другое...
цитата
20/03/08 в 03:46
Chin
Лучше закрыть, и не яваскриптом а robots.txt (при возможности)
цитата
20/03/08 в 07:08
RavE
Для чего? Что это даст, если еще неуникальный текст имеет те же ключевики, под которые заточены уникальные тексты и весь блог вцелом?
цитата
20/03/08 в 08:36
shapov
переделай немножко неуникальный текст, чтобы он более-менее уникальным был=)
цитата
20/03/08 в 09:18
GDV
Не мешает он, не переживай так )
цитата
20/03/08 в 12:32
pierx
Chin писал:
Лучше закрыть, и не яваскриптом а robots.txt (при возможности)
Не ожидал. Недавно еще топик был на подобную тему, там выводы другие были вроде.
цитата
20/03/08 в 14:35
Cosinus
слышал мнение, что robots.txt гуглу не указ. индексирует и то, что закрыто.
переделывать 500 страниц - не весело, сайт белый.
вопрос в том, пенализируют ли поисковики уникальные страницы, если основная масса контента на сайте - дублированная.
цитата
20/03/08 в 18:00
Profity
Если бы такое пенальти существовало, то все блоги на фрихостах вроде thumblogger'а были бы в попе из-за кучи сплогов на этих же доменах.
цитата
20/03/08 в 18:11
andreich
Profity писал:
попе из-за кучи сплогов на этих же доменах.
а причем тут это?
java script не поможет, гугл хавает ее, насчет что будет, не думаю что кто то может со 100% гарантией сказать
цитата
20/03/08 в 19:06
bivin
Убирать, я думаю, не имеет смысла, пусть гугл видит всё. Ведь даже матёрые сплоги вылезают в Се.
цитата
21/03/08 в 11:53
Cosinus
понятно, всем спасибо, рейтингу добавил.
насчет того, что гугл хавает javascript - так можно спрятать так, что не схавает
цитата
21/03/08 в 19:17
Chin
У гугля есть ограничения на индексацию. Зависят они от трастовости, как мне понимается.
Если у тебя слабенький домен с 500 уникальными и 10 000 неуникальных текстов, есть вероятность что эти 500 уникальных вообще не попадут в индекс, а те что вошли в индекс переместятся в сопли, отожрав лимиты индексации.
Я прекрасно знаю что не сильно трастовые домены могут быть в индексе с присутствием 1 000 000 страниц (у меня такие есть), но это чисто сплоговые вещи и мне пох что с ними случится и сколько с них трафика будет. К бережно взращиваемым проектам должен имхо быть другой подход.
цитата
21/03/08 в 21:02
taljanich
Соглашусь наверное с Chin'om...
нечто подобное наблюдал на одном блоге, когда ещё сопли по человечески показывались, но после жестокого рерайта(благо постов было немного, штук 40) гугл вернул страницы в main индекс
Новая тема
Ответить
Эта страница в полной версии