Master-X
Форум | Новости | Статьи
Главная » Статьи » Поисковые системы » SEO-дайджест: апрель 2011 г. » 
СТАТЬИ

SEO-дайджест: апрель 2011 г.
Блокировать или не блокировать дублированный контент в Google?

На Google Webmaster Help появилась интересная дискуссия, в которой один оптимизатор интересуется, почему Google сам себе противоречит в вопросе о дублированном контенте. Он даже приводит конкретные цитаты из справки Google.

(1) Сайты, удобные для Google №40349:

Не создавайте несколько копий страницы под разными URL-адресами. Многие сайты содержат текстовые версии страниц и версии для печати, имеющие такое же содержание, как и соответствующие страницы с графикой. Чтобы обеспечить включение выбранной вами страницы в результаты поиска, необходимо блокировать доступ наших сканеров к копиям с помощью файла robots.txt.

(2) Повторяющееся содержание №66359:

Google больше не рекомендует блокировать доступ поискового робота к повторяющемуся содержанию с помощью файла robots.txt или иных способов. Если поисковые системы потеряют возможность сканировать страницы с повторяющимся содержанием, то они не смогут автоматически определять, что разные URL-адреса имеют одинаковое содержание, и будут обращаться с ними как с уникальными страницами. Наилучший выход из этого положения – разрешить поисковым системам сканировать все URL-адреса, предварительно отметив их как повторяющиеся с помощью элемента ссылки rel="canonical", функции обработки параметров URL или переадресации 301.

Каким из этих советов руководствоваться? Нужно ли блокировать дублированный контент или нет? Теперь, когда «алгоритм Панда» запущен повсеместно и Google советует удалять повторяющиеся и неоригинальные материалы, что в конечном итоге делать вебмастерам и оптимизаторам?

Обсуждение на Google Webmaster Help.


Могут ли «старые» даты статей снизить поисковые позиции сайта в Google?

У большинства статей или постов присутствует дата их публикации. В целом, такая информация является полезной для пользователей, так как благодаря ей они могут оценить актуальность и релевантность того или иного сообщения. Интересно, насколько полезными эти данные являются для алгоритмов Google?

На WebmasterWorld один вебмастер, у которого на сайте размещено очень много контента, поделился, как именно и для чего он скрывает дату публикации своих статей. До внедрения «алгоритма Панды» ему удавалось убирать «старые» даты из поисковых результатов, однако теперь Google все равно «видит» их. В связи с этим вебмастер задается вопросом, может ли старый контент (2004-2007 годов) снизить позиции сайта в поисковой выдаче Google?

По мнению большинства участников форума, не существует связи между датой публикации статьи и поисковой позицией страницы, на которой она размещена. Правда, бытует обратное предположение: чем более «свежий» пост, тем выше показатель кликабельности и, возможно, тем лучше позиция веб-страницы в поиске. Но в отношении «устаревших» дат такая схема не работает, по крайней мере, сейчас на это нет никаких оснований.

Обсуждение на WebmasterWorld.


Google о краже контента

Несмотря на действия «алгоритма Панды», до сих пор в поисковой выдаче встречаются примеры, когда сайты-первоисточники ранжируются ниже, чем ресурсы, скопировавшие их оригинальный контент. Существует мнение, что Google не всегда верно определяет сайт, который первый разместил материалы. Многие вебмастера надеялись, что всемогущий «алгоритм Панда» раз и навсегда решит данную проблему, но они ошибались.

В представленном видео гуглер Мэтт Каттс (Matt Cutts) не говорит ничего нового. Единственно, в случае копирования контента он советует делать запрос об удалении контента из сервисов Google. В последнее время данный сервис пользуется все большей популярностью у владельцев сайтов.

Обсуждение на WebmasterWorld и Google Webmaster Help.

02.06.11
Источник: SERoundTable.com.
Автор: SERoundTable. Перевод: Mia.
Стр. 1, 2, 3, 4, 5  >  последняя »


Эта страница в полной версии