Master-X
Форум | Новости | Статьи
Главная » Статьи » Поисковые системы » SEO-дайджест: февраль 2007 г. » 
СТАТЬИ

SEO-дайджест: февраль 2007 г.


Давайте посмотрим в категорию SEO:

Search Engine Watch имеет 213,437 внешних ссылок Webmasterworld имеет 275,587 внешних ссылок SEBook имеет 283,855 внешних ссылок Search Engine Roundtable имеет 239,111 внешних ссылок

Все то же самое.

Так как же Yahoo! определяет популярность?

По умолчанию, в Директории сайты располагаются согласно популярности и релевантности. Сайты, которые наиболее популярны у пользователей или наиболее релевантны категории, появляются вверху листинга. Порядок следования сайтов или веб-документов основывается на Yahoo! Search Technology. Если категория велика, то листинги будут показываться на нескольких страницах, с номерами страниц в нижней части страницы.


Sagerock, участник форума Webmasterworld, предполагает, что все связано с кликовой популярностью. Но я подозреваю, что все немного сложнее, и заключается во фразе Yahoo!: «порядок следования веб-сайтов или веб-документов основан на Yahoo!Search Technology».

Они вполне могут применить алгоритм популярности к Директории и сортировать страницы соответственно. Теперь осталось только узнать, как работает алгоритм популярности…

Обсуждение на WebmasterWorld

Падение сайта может стать причиной удаления из индекса Google

В ветке на Google Groups были озвучены некоторые детали, о которых я не знал ранее. Если сайт временно недоступен, я полагал, что Google не будет сразу исключать его из индекса, но даст ему какое-то время.

Если верить сказанному в данной ветке, все немного не так.

Проблема:

У меня были проблемы с доступом к сайту, из-за моей хостинговой компании (завтра переезжаю, поскольку терпение лопнуло), и теперь я практически исчез из Google. Я был на третьем месте по 5 наиболее популярным запросам в моей области, а теперь – ничего.


Vanessa Fox из Google отвечает:

Если хостинг лежит, когда Googlebot пытается получить доступ к вашим страницам, то эти страницы могут исчезнуть из индекса Google, пока Googlebot не пройдет по ним снова. Появляются ли страницы, которые хотелось бы видеть проиндексированными, в разделе «Crawl Errors» вашей панели вебмастерских инструментов? Если да, то Googlebot не смог получить к ним доступ.

Если вы переносите сайт на новый хостинг, и страницы будут доступны в следующий раз, когда Googlebot попытается получить к ним доступ, то вскоре после этого вы снова увидите их в индексе.


Итак, Google может удалить страницы из индекса, если они недоступны для Google из-за серверных неполадок.

Однако она далее заявляет, что запроса на повторное включение в данном случае не требуется.

Запрос на повторное включение требуется только для сайтов, которые нарушили правила. В вашем случае ситуация другая, поэтому нет необходимости уведомлять нас, что ваш сайт переехал и снова доступен, Googlebot будет автоматически пытаться получить к нему доступ.


Я добавил в ветку несколько вопросов, чтобы прояснить ситуацию.

Обсуждение на Google Groups

Обновление: Кроме того, что Vanessa прокомментировала ранее, она ответила также и на мои вопросы:

Googlebot осуществит несколько попыток, прежде чем страницы исчезнут из индекса. Ну а насколько быстро страница снова появится в индексе после возобновления работы сайта, зависит от нескольких факторов. К примеру, насколько часто сайт просматривался поисковым пауком.


Почему нужно пользоваться уникальными тегами Meta Description?

Как я упоминал недавно, Google рекомендует пользоваться тегами Meta Description, но почему?

Ветка на Search Engine Watch приводит прекрасный пример того, почему уникальный тег Meta Description имеет значение.
05.03.07
Источник: SERoundTable.
Автор: SERoundTable. Перевод: Seva.
Стр. « первая   <  1, 2, 3, 4, 5  >  последняя »


Эта страница в полной версии