Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Уникальность с неуникальностью
цитата
19/03/08 в 15:07
 Cosinus
возник такой вопрос - а насколько неуникальный контент мешает кусочкам уникального на том же сайте.

допустим, на сайте 500 страниц, 10 из них - уникальные, остальные - дублированый контент.
может, лучше страницы с дублировнным контентом спрятать джаваскриптом? или они не помешают уникальным страницам?
всех рейтингом осыплю icon_smile.gif
цитата
19/03/08 в 22:08
 RavE
А зачем закрывать неуникальный контент? Чтобы гугл считал твой рес полностью уникальным? ;)
Я думаю, что не нужно ничего закрывать.. Пусть все индексирует!
ИМХО конечно же.. Может СЕО гуру подскажут что-то другое...
цитата
20/03/08 в 03:46
 Chin
Лучше закрыть, и не яваскриптом а robots.txt (при возможности)
цитата
20/03/08 в 07:08
 RavE


Для чего? Что это даст, если еще неуникальный текст имеет те же ключевики, под которые заточены уникальные тексты и весь блог вцелом?
цитата
20/03/08 в 08:36
 shapov
переделай немножко неуникальный текст, чтобы он более-менее уникальным был=)
цитата
20/03/08 в 09:18
 GDV
Не мешает он, не переживай так )
цитата
20/03/08 в 12:32
 pierx
Chin писал:
Лучше закрыть, и не яваскриптом а robots.txt (при возможности)
Не ожидал. Недавно еще топик был на подобную тему, там выводы другие были вроде.
цитата
20/03/08 в 14:35
 Cosinus
слышал мнение, что robots.txt гуглу не указ. индексирует и то, что закрыто.
переделывать 500 страниц - не весело, сайт белый.
вопрос в том, пенализируют ли поисковики уникальные страницы, если основная масса контента на сайте - дублированная.
цитата
20/03/08 в 18:00
 Profity


Если бы такое пенальти существовало, то все блоги на фрихостах вроде thumblogger'а были бы в попе из-за кучи сплогов на этих же доменах.
цитата
20/03/08 в 18:11
 andreich
Profity писал:
попе из-за кучи сплогов на этих же доменах.

а причем тут это?

java script не поможет, гугл хавает ее, насчет что будет, не думаю что кто то может со 100% гарантией сказать
цитата
20/03/08 в 19:06
 bivin
Убирать, я думаю, не имеет смысла, пусть гугл видит всё. Ведь даже матёрые сплоги вылезают в Се.
цитата
21/03/08 в 11:53
 Cosinus
понятно, всем спасибо, рейтингу добавил.
насчет того, что гугл хавает javascript - так можно спрятать так, что не схавает icon_smile.gif
цитата
21/03/08 в 19:17
 Chin
У гугля есть ограничения на индексацию. Зависят они от трастовости, как мне понимается.
Если у тебя слабенький домен с 500 уникальными и 10 000 неуникальных текстов, есть вероятность что эти 500 уникальных вообще не попадут в индекс, а те что вошли в индекс переместятся в сопли, отожрав лимиты индексации.
Я прекрасно знаю что не сильно трастовые домены могут быть в индексе с присутствием 1 000 000 страниц (у меня такие есть), но это чисто сплоговые вещи и мне пох что с ними случится и сколько с них трафика будет. К бережно взращиваемым проектам должен имхо быть другой подход.
цитата
21/03/08 в 21:02
 taljanich
Соглашусь наверное с Chin'om...
нечто подобное наблюдал на одном блоге, когда ещё сопли по человечески показывались, но после жестокого рерайта(благо постов было немного, штук 40) гугл вернул страницы в main индекс


Эта страница в полной версии