Новый алгоритм Google по борьбе с контент-фермами и низкокачественными сайтами
В конце февраля самой жаркой и самой обсуждаемой темой в SEO-коммьюнити, безусловно, была новость о запуске алгоритма Google по борьбе с контент-фермами (content farms). Об этом Google официально
объявил 24 февраля, и это стало уже вторым шагом поисковика в борьбе со спамовыми и низкокачественными сайтами.
В
интервью гуглеры Амит Сингхал (Amit Singhal) и Мэтт Каттс (Matt Cutts) рассказали, что этот новый алгоритм, называемый внутри компании как «алгоритм Панды» (по нику одного из главных разработчиков), повлияет примерно на 12% всех запросов в Google. Его главная цель – снизить поисковые позиции низкокачественных сайтов, которые не представляют особой ценности для пользователей, и сайтов-скрейперов, которые просто копируют контент с оригинальных источников. На данный момент алгоритм действует только на территории Соединенных Штатов Америки, но в ближайшем будущем Google планирует запустить его и в других странах.
Хорошую
статью по поводу нового анти-спамового алгоритма написал знакомый нам Дэнни Салливан (Danny Sullivan), который резюмировал все произошедшее.
Конечно, хорошо, что Google объяснил февральские «тряски» в поисковике, но для многих вебмастеров и оптимизаторов уже назрел следующий вопрос – «Что делать?».
На
WebmasterWorld один вебмастер создал топик, в котором он планирует перечислить все свои действия по возвращению прежних поисковых позиций его сайта и описать эффект, которые они возымеют. Стоит сразу отметить, что, скорее всего, большинству ресурсов не удастся вернуть свои старые позиции, по крайней мере, в ближайшем будущем. Однако есть ряд мер, которые, возможно, помогут хоть как-то изменить сложившуюся ситуацию.
Итак, что надо делать?
Сначала надо понять, как сильно пострадал ваш ресурс от нового алгоритма, и исходя из этого, определить для себя, насколько значимыми должны быть перемены. Для этого нужно проанализировать отчеты и выявить основные ключевые слова, в том числе из «длинного хвоста», по которым значительно снизился трафик. Необходимо посмотреть какие категории запросов попали под фильтр. Если вы потеряли до 75% трафика, то это может означать, что у вашего ресурса очень большие проблемы с качеством контента. Если вы потеряли гораздо меньше трафика, то, вероятнее всего, вам не придется переделывать сайт глобально.
Похоже, что на данный момент самой популярной тактикой по выходу «из-под фильтра» является блокировка индексирования некачественного и автоматически сгенерированного контента. Ведь страницы с низкокачественным содержимым могут влиять на ранжирование всего сайта. Об этом гуглер ДжонМу говорил еще в январе. Тогда он
посоветовал полностью убрать или отделить низкокачественный контент от качественного и уникального.
Но как лучше всего это сделать? Участники форума перечислили варианты, к которым они прибегают в данной ситуации:
- Сначала надо удалить страницы, которые сильнее всего попали под фильтр
- К некачественным страницам, которые не сильно пострадали от нового алгоритма, нужно присвоить тэг Meta Robots со значением Noindex
- Сам контент не стоит удалять, а следует сразу переработать, повысив его качество
- Необходимо также сократить количество внутренних ссылок
- Желательно использовать атрибут rel="canonical" для страниц-дубликатов
- Затем надо понаблюдать за эффектом предпринятых действий
- После нужно снова вернуться в самые «темные и забытые» уголки сайта и удалить оттуда весь спам
- Также необходимо обратить внимание на «бойлерплейт»-тексты: желательно сократить их количество или сделать их уникальными для каждой страницы
- Затем нужно отписаться в этом топике Google, рассказав о том, как новый алгоритм повлиял на ваш сайт
- Наконец нужно отправить Google письмо о пересмотре статуса ресурса, сообщив о том, что вы внесли все необходимые изменения
12.03.11
Источник:
SERoundTable.
Автор:
SERoundTable. Перевод:
Mia.