Крупный сайт против нескольких нишевых доменов: кто сильнее?
По мере того, как граждане Сети осваивают азы функционирования вебсайтов и ранжирования в поисковых системах, у них зачастую возникает желание обойти утомительный процесс поисковой оптимизации и добиться успеха более легкими способами. И ничего плохого в этом нет, потому что подобные мысли помогают развитию инноваций. На форумах, посвященных поисковой оптимизации, время от времени появляются топики, объединенные темой «как обмануть поисковые системы».
Данная идея (которая, признаюсь, приходила и мне в голову, когда я начинал освоение предмета) состоит в создании нескольких сайтов в надежде получить высокие ранкинги по нужным поисковым запросам. Проблема в том, что данная идея попросту не работает, если вы не имеете дело с абсолютно новым продуктом или услугой. Допустим, вы создали первый в мире «Booglabangly». Вы можете создать несколько сайтов, посвященных этому новому кейворду, и скорее всего вскоре займете лидирующие позиции. Соревнования по SEO регулярно проводятся именно по такому принципу.
Недавняя ветка на Cre8asite Forums посвящена обсуждению этой темы. Стартовый вопрос заключался в создании нескольких вебсайтов для получения высоких ранкингов по нужному кейворду.
Суть стратегии – найти нишу и доминировать в ней, с помощью множества вебсайтов. Создаем максимально возможное количество сайтов, которые под разными углами освещают нишу. В результате, когда кто-то делает поиск по этой нише, большинство вебсайтов появляется на страницах с результатами запроса.
Тут же топикстартер приводит цитату из ветки на
SitePoint Forums.
Первый же ответ в этом топике получился продуманным и взвешенным. Отвечающий поделился собственным опытом, исходя из которого, один цельный вебсайт со множеством тем получит высокие ранкинги по новому кейворду быстрее, чем новый сайт – ведь большой сайт уже заслужил определенную степень доверия.
Затем Bragadocchio отметил, что успеха с новыми сайтами можно достичь, если сфокусировать эти сайты на различные маркетинговые сегменты – как, собственно, и предлагал топикстартер.
Изначальный вопрос предлагал использование этих сайтов для создания взаимных ссылок, но Bill довольно резонно заметил
Я бы не увлекался чрезмерной взаимной залинковкой сайтов. Это может насторожить поисковые системы.
Слишком сложно однозначно ответить на поднятые вопросы, поскольку трафик, созданный подобными CJ-системами, не всегда бывает законным, качественным или платежеспособным. Лично я считаю, что времена создания множества сайтов на популярный кейворд уже давно прошли – по крайней мере, если говорить о естественных результатах поиска. С другой стороны, подобный поисковый маркетинг с использованием приемов SEO и платных поисковых объявлений, или при продвижении локальных продуктов, может быть вполне успешным и завоевать достойные позиции во многих поисковых системах.
Дискуссия на
Cre8asite Forums и
Sitepoint Forums.
Вебмастер пострадал от 301-редиректов с не-WWW на WWW версию
Душещипательная история была рассказана на WebmasterWorld. Год назад, один Вебмастер преуспевал в результатах поиска Google. Затем он решил последовать совету Google и сделал редирект с не-WWW версии сайта на WWW версию (то есть http://seroundtable.com а http://www.sseroundtable.com ) После этого, Google исключил страницы его сайта из своих результатов. Он ждал в течение 10 месяцев! 10 месяцев давалось Google, чтобы понять, что нужно индексировать www-версию – безрезультатно. Тогда Вебмастер решил отказаться от 301 редиректа – и через две недели его сайт снова появился в результатах поиска, на тех же позициях, что и раньше. Вот это да.
Участники WebmasterWorld, админы и модераторы устроили Вебмастеру перекрестный допрос, чтобы понять – что же было сделано неправильно. Однако вроде бы все делалось «по учебнику».
Что это, еще один отголосок проблем Google с каноническими URL?
Обсуждение на
WebmasterWorld
31.07.06
Источник:
SEroundTable.
Автор:
SEroundTable. Перевод:
Seva.