Каким образом вебмастер может определить, подверглась ли его или ее страница воздействию Googlejack? Для начала наберите "allinurl:yourdomail.com" в поисковой форме Google и посмотрите на результаты. Упомянутый домен должен возглавлять листинг. Если листинг содержит другие результаты с правильными заголовками и выдержками, а в некоторых случаях и кешированными данными, но с некорректными URL, шансы весьма велики, что страница была подвергнута действию Googlejack, случайно или преднамеренно.
Устранить проблему не так просто, как обнаружить. Вебмастера не могут забанить 302-реферралов и большинство из скриптов редиректа, поскольку серверы не получают эту информацию во время коннект-запросов. Клики со страницы, содержащей редирект-скрипт, забанить можно, однако это окажет влияние только на серферов, но не на поисковых спайдеров - в которых, собственно, вся проблема. Вебмастеры могут запросить Google на удаление страниц, но это процесс длительный и утомительный, да и работает он только в пределах определенных параметров.
Schmidt предлагает вебмастерам предпринять несколько шагов, чтобы свести к минимуму вероятность грабежа их страниц:
всегда назначайте редирект "не-www" доменов (yourdomain.com) на www-версию (www.yourdomain.com) или наоборот, и делайте это при помощи 301 кода, вместо 302 кода.
всегда используйте абсолютную внутреннюю залинковку на вебсайте (включайте полное доменное имя в ссылки, ведущие с одной страницы на другую внутри одного сайта).
включайте элементы постоянно обновляемого контента во все страницы - значение времени, случайную цитату или счетчик посещений.
используйте мета-тэг на всех страницах.
заставьте все страницы "искусственно" подтверждать их URL, включая 302 редирект с любого URL на тот же самый URL с последующей генерацией статуса "200 ОК".
Schmidt также предлагает вебмастерам принять меры, чтобы не стать случайными грабителями:
всегда используйте 301 редиректы вместо 302 редиректов, или запрещайте использование редирект-скриптов в файле "robots.txt", или используйте оба эти приема в комплексе
запрашивайте удаление всех редирект-скриптов из индекса Google. Простое включение URL в файл robots.txt не удалит его из Google. Эти действия дадут гарантию, что URL не будет посещаться спайдерами Google.
если вы обнаружите, что одна из ваших страниц случайно грабит чью-то другую в индексе Google, заставьте скрипт на этой странице возвращать 404 ошибку (страница не найдена), и затем запросите Google на удаление этого скрипта из его индекса.
16.05.05
Источник:
AVN.
Автор:
Kathee Brewer. Перевод:
Seva.