Master-X
Форум | Новости | Статьи
Главная » Статьи » Поисковые системы » SEO-дайджест: декабрь - январь 2012-13 гг. » 
СТАТЬИ

SEO-дайджест: декабрь - январь 2012-13 гг.
Клоакинг: скрытие рекламы от GoogleBot

На WebmasterWorld писал вебмастер, который хотел спрятать рекламу от Google и в связи с этим заинтересовался, насколько это противоречит правилам поисковой системы.

Действительно ли Google примет это за «скрытие контента»? Ответ на этот вопрос есть в службе поддержки Google:
Клоакинг заключается в том, что пользователи и поисковые системы видят разный контент или разные URLs. Клоакинг считается нарушением правил, прописанных в Руководстве для вебмастеров, потому что пользователи получают не те результаты, которые они ожидают увидеть.

Некоторые примеры клоакинга включают:

В данном случае вебмастер хочет показывать рекламу только зарегистрированным пользователям. Так как GoogleBot не может зарегистрироваться, он увидит то, что видит незарегистрированный пользователь, т.е. контент без рекламы.
Таким образом, если GoogleBot и незарегистрированный пользователь видят одно и то же, – это не считается клоакингом.

Обсуждение на WebmasterWorld.


Пенальти внутренней перелинковки?

На WebmasterWorld писал один вебмастер, который управляет 150 сайтами, 3 из которых упали примерно в одно и то же время. Единственный объединяющий фактор – это текст анкора, который использовался на домашней странице для ссылки на нее же.
Вебмастер уверен, что сайты были наказаны именно из-за стандартного текста, указывающего на тему сайта. Он пишет:

Из 150 сайтов, которые я вел, 3 упали пару месяцев назад. И единственное, что их объединяет, как мне кажется, - все ссылки на домашнюю страницу включают главное ключевое слово.
"Коты" – один анкор на домашнюю страницу.
"Мойка окон" – другой анкор.


Обсуждение на WebmasterWorld.


Когда Google не индексирует контент

На Google Webmaster Help один вебмастер жалуется по поводу того, что количество проиндексированных Google страниц, которые содержатся в файле Sitemap, значительно сократилось.
Лучший способ узнать, сколько страниц сайта было проиндексировано, - загрузить XML Sitemap файл и сравнить количество добавленных в документ URLs и количество проиндексированных. Если число примерно совпадает – замечательно. Если количество проиндексированных страниц увеличивается – еще лучше. Если же их число падает – стоит задуматься.

Гуглер Gary Illyes пишет по этому поводу:

Мы улучшили алгоритмы таким образом, что они не будут повторно индексировать страницы, которые не содержат полезной для пользователей информации. Я взглянул на страницы, которые ранее были проиндексированы, а теперь не индексируются. Их немного, и причина заключается в отсутствии «живого» контента.

Gary показал примеры страниц, которые выдают «мягкую» 404 ошибку (вместо «не найдено» возвращается стандартная страница с кодом «200 OK»). Также он привел примеры пустыx страниц, которые были проиндексированы, и примеры URLs в Sitemap, которые ссылаются на неканонические URLs.
«Здоровым» сайтам нужны качественные ссылки, контент, редиректы и правильные заголовки ответа HTTP. В противном случае Google перестанет индексировать или даже сканировать эти URLs.
Обсуждение на Google Webmaster Help.

21.02.13
Источник: SERoundTable.
Автор: SERoundTable. Перевод: Erzhi.
Стр. « первая   <  1, 2, 3, 4, 5  >  последняя »


Эта страница в полной версии