Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Фильтры google
цитата
30/11/09 в 01:03
 Христофор Бонефатьевич
Давайте в этом топике соберем фильтры гугла с которыми вы лично сталкивались. Я начну:

Высокая плотность ключевых слов
Страница пессимизуется и не находится даже по фразе в кавычках.

Последний раз редактировалось: Христофор Бонефатьевич (08/07/10 в 22:52), всего редактировалось 1 раз
цитата
30/11/09 в 01:11
 FriMan
слишком быстрый набор хардлинков, у меня пара ресов вылетали из-за этого
цитата
30/11/09 в 05:56
 Sergeyka
у меня вопрос!
а как вы узнаете, что именно из-за этого был наложен тот или иной фильтр?

то что сайт под фильтром это определить можно, а вот под каким фильтром??? для меня это загадка, просветите ????
цитата
30/11/09 в 06:10
 nubik
да не хуя не определишь, из последнего у меня -

два одинаковых сайта (ну диз разный и ключивики по разному разбросаны)
ссылки на 99% с одних и тех же мест

на одном 200 уников
на втором почти 10к

вот и думай тут icon_rolleyes.gif
цитата
30/11/09 в 10:04
 sydoow
Читал недавно при фильтры на одном блоге
http://awmdolphin.com/google-filtry/
цитата
30/11/09 в 14:17
 Блогер
у меня было за:
смена тайтла
ставил ссылки на другие ресурсы и через пару дней убирал
дабл контент на одном и том же IP
цитата
30/11/09 в 15:15
 bubon
Дублированный контент
А вот про этот объясните поподробней.
цитата
30/11/09 в 15:40
 pierx
sydoow писал:
Читал недавно при фильтры на одном блоге
http://awmdolphin.com/google-filtry/
Цитата:
Фильтр «Дублирование контента»:
распространяется на ресурсы ворующие контент.
Заябись объяснение smail101.gif

Менять надо на пагах таких - хотя-бы тайтлы и метатеги (что реально
Вылет из индекса останавливается

Последний раз редактировалось: pierx (30/11/09 в 15:59), всего редактировалось 1 раз
цитата
30/11/09 в 15:58
 Sterx
bubon писал:
Дублированный контент
А вот про этот объясните поподробней.

одинаковые тайтлы и почти одинаковое текстовое наполнение на 2+ страницах
цитата
30/11/09 в 16:33
 Sergeyka
в общем топег из области догадок icon_smile.gif

на сколько я знаю и у людей знающих спрашивал, если за что и можно предположить, то ни кто не может сказать точно под какой фильтр сайт попал под раздачу icon_biggrin.gif

Жгите дальше smail54.gif
цитата
30/11/09 в 19:28
 sergio21
Христофор Бонефатьевич писал:
Давайте в этом топике соберем фильтры гугла с которыми вы лично сталкивались. ...


за продажу ссылок через биржи с автоматическим размещением ссылок на сайте-доноре (бэклинкс, сапа, другие аналогичные) гугл накладывает следующие санкции:
1. PR уменьшается на 2 пункта (иногда на 3).
2. Если при этом на ресах неуникальный контент, то почти наверняка - бан.

проверено эмпирическим путем. ))
цитата
30/11/09 в 21:55
 Sakura
Фильтры это самое сложное в СЕО, большинство сайтов развивается крайне криво с жуткими перекосами, стоят у черты и сами того не ведают.
Можно насчитать до 30 фильтров, зависимости от того насколько широко трактовать это понятие. Если сайт упёрся в низкую планку, то надо смотреть по всем параметрам, по каждому возможному и устранять ошибки, другого не дано. Вебмастеру не специалисту отличить фильтр он просто застоя сложно.
Печально что долго выходить из под серьезных, можно по полгода-год выходить из под них. А например из подозрения на вирусы быстро.

Из последних за смену контента, из экзотики за нарушение DMCA, из классики переопимизация.
цитата
30/11/09 в 23:00
 Merca
Еще немного о фильтрах гугла:
http://www.armadaboard.com/articles170.htm
http://www.seoweblog.ru/archives/84
цитата
01/12/09 в 08:09
 Vlad
Думается мне, что надо вопрос по другому ставить.
Важно не список фильтров иметь (что бесполезно), а знать какой конкретно фильтр наложен на конкретный сайт, а это узнать невозможно icon_sad.gif
цитата
01/12/09 в 16:21
 Sergeyka
Vlad: угу я и говорю, топег из области догадок icon_wink.gif
цитата
01/12/09 в 17:53
 Marcello
Цитата:
Фильтр «Дублирование контента»:
распространяется на ресурсы ворующие контент.
Заябись объяснение smail101.gif

Согласен icon_smile.gif Поправил.

Фильтры определить невозможно, но изучать информацию о фильтрах стоит, чтобы не допускать ошибки.
цитата
01/12/09 в 18:33
 Profity
Я думаю ТС хочет не попытаться определить по каким фильтром находится тот или иной ресурс, а составить список того, чего стоит избегать.
цитата
01/12/09 в 20:09
 Христофор Бонефатьевич


Именно!
цитата
08/07/10 в 22:53
 Христофор Бонефатьевич
up!
цитата
08/07/10 в 23:00
 LOVE
а как определяете? интуитивно?
чтобы точно определять нужно же иметь огромную экспериментальную базу.
цитата
08/07/10 в 23:30
 mickey
а как определить или сайт не под фильтром вообще? icon_smile.gif
цитата
09/07/10 в 09:21
 Babloman
если денег приносит - значит не под фильтром icon_smile.gif
цитата
09/07/10 в 10:05
 FXIX
Profity писал:
Я думаю ТС хочет не попытаться определить по каким фильтром находится тот или иной ресурс, а составить список того, чего стоит избегать.

Чтобы понять чего стоит избегать надо понять что вообще может гугель. Чтобы понять что может гугель надо не школотные статьи капитана очевидности читать а раскопать (хотя бы "осколки" урывки и наброски) научных работ, кандидатских и диссертаций на тему лингвистического анализа и синтаксического разбора людей и смежных коллективов которые или работают\работали в гугле\с гуглом или так или иначе работают в компаниях связанных с СЕ при больших жирных институтах. вот это охуительное чтиво. Если я вам расскажу что уже в 2001 году у гугла был алгоритм который с достаточной долей трастовости определял что "вот эти десять синнонимизированных статей с десяти сайтов" спизжены вон с того сайта. А статья спизженная и синнонимизированная одним человеком - определялась с 97% вероятностью. А еще могу рассказать что цепи маркова умерли после того как гугл применил достаточно четкий алгоритм определения существования словоформ (на базе 50-терабайтного корпуса текста была построена модель сочетаний частей речи (к примеру пары "междометие глагол" не существует в природе. и никто так не говорит. а всего 23 части речи кстати). были построены все возможные пары, на основе другого алгоритма определяющего по слову и контексту: часть речи\падеж\число\род\склонение на основе всех возможных для данного слова приставок-суффиксов-окончаний. И чтобы окончательно понять чего стоит избегать, надо покурить и наложить сверху экономическую модель самого гугла (чтобы понять насколько им выгодно или невыгодно применять тот или иной алгоритм (ведь массив сайтов их кровь и деньги. им невыгодно эту реку "сушить")). у них есть такие алгоритмы от которых можно на сраку упасть и не вставать целый день. но еще интересней смотреть вычитки наложений (ну гугель ведь не меценат. и качество\некачество выдачи вообще говоря коррелирует с деньгами. оценивается текущая выдача(клики-адсенсы-платные объявления-партнерские-денежная емкость аудитории и прочие прочие. накладывается алгоритм и снова оценивается выдача. если в общем случае людей-компаний-бабла-посещений стало меньше под строкой поиска то алгоритм тормозится. несмотря на его быть может революционность и вообще технологию "от 2020 года выпуска").


Эта страница в полной версии