Master-X
Регистрация
|
Вход
Форум
|
Новости
|
Статьи
Главная
»
Форум
»
Поисковые Системы
»
Тема:
Фильтры google
Новая тема
Ответить
цитата
30/11/09 в 01:03
Христофор Бонефатьевич
Давайте в этом топике соберем фильтры гугла с которыми вы лично сталкивались. Я начну:
Высокая плотность ключевых слов
Страница пессимизуется и не находится даже по фразе в кавычках.
Последний раз редактировалось: Христофор Бонефатьевич (
08/07/10 в 22:52
), всего редактировалось 1 раз
цитата
30/11/09 в 01:11
FriMan
слишком быстрый набор хардлинков, у меня пара ресов вылетали из-за этого
цитата
30/11/09 в 05:56
Sergeyka
у меня вопрос!
а как вы узнаете, что именно из-за этого был наложен тот или иной фильтр?
то что сайт под фильтром это определить можно, а вот под каким фильтром??? для меня это загадка, просветите ????
цитата
30/11/09 в 06:10
nubik
да не хуя не определишь, из последнего у меня -
два одинаковых сайта (ну диз разный и ключивики по разному разбросаны)
ссылки на 99% с одних и тех же мест
на одном 200 уников
на втором почти 10к
вот и думай тут
цитата
30/11/09 в 10:04
sydoow
Читал недавно при фильтры на одном блоге
http://awmdolphin.com/google-filtry/
цитата
30/11/09 в 14:17
Блогер
у меня было за:
смена тайтла
ставил ссылки на другие ресурсы и через пару дней убирал
дабл контент на одном и том же IP
цитата
30/11/09 в 15:15
bubon
Дублированный контент
А вот про этот объясните поподробней.
цитата
30/11/09 в 15:40
pierx
sydoow писал:
Читал недавно при фильтры на одном блоге
http://awmdolphin.com/google-filtry/
Цитата:
Фильтр «Дублирование контента»:
распространяется на ресурсы ворующие контент.
Заябись объяснение
Менять надо на пагах таких - хотя-бы тайтлы и метатеги (что реально
Вылет из индекса останавливается
Последний раз редактировалось: pierx (
30/11/09 в 15:59
), всего редактировалось 1 раз
цитата
30/11/09 в 15:58
Sterx
bubon писал:
Дублированный контент
А вот про этот объясните поподробней.
одинаковые тайтлы и почти одинаковое текстовое наполнение на 2+ страницах
цитата
30/11/09 в 16:33
Sergeyka
в общем топег из области догадок
на сколько я знаю и у людей знающих спрашивал, если за что и можно предположить, то ни кто не может сказать точно под какой фильтр сайт попал под раздачу
Жгите дальше
цитата
30/11/09 в 19:28
sergio21
Христофор Бонефатьевич писал:
Давайте в этом топике соберем фильтры гугла с которыми вы лично сталкивались. ...
за продажу ссылок через биржи с автоматическим размещением ссылок на сайте-доноре (бэклинкс, сапа, другие аналогичные) гугл накладывает следующие санкции:
1. PR уменьшается на 2 пункта (иногда на 3).
2. Если при этом на ресах неуникальный контент, то почти наверняка - бан.
проверено эмпирическим путем. ))
цитата
30/11/09 в 21:55
Sakura
Фильтры это самое сложное в СЕО, большинство сайтов развивается крайне криво с жуткими перекосами, стоят у черты и сами того не ведают.
Можно насчитать до 30 фильтров, зависимости от того насколько широко трактовать это понятие. Если сайт упёрся в низкую планку, то надо смотреть по всем параметрам, по каждому возможному и устранять ошибки, другого не дано. Вебмастеру не специалисту отличить фильтр он просто застоя сложно.
Печально что долго выходить из под серьезных, можно по полгода-год выходить из под них. А например из подозрения на вирусы быстро.
Из последних за смену контента, из экзотики за нарушение DMCA, из классики переопимизация.
цитата
30/11/09 в 23:00
Merca
Еще немного о фильтрах гугла:
http://www.armadaboard.com/articles170.htm
http://www.seoweblog.ru/archives/84
цитата
01/12/09 в 08:09
Vlad
Думается мне, что надо вопрос по другому ставить.
Важно не список фильтров иметь (что бесполезно), а знать какой конкретно фильтр наложен на конкретный сайт, а это узнать невозможно
цитата
01/12/09 в 16:21
Sergeyka
Vlad:
угу я и говорю, топег из области догадок
цитата
01/12/09 в 17:53
Marcello
Цитата:
Фильтр «Дублирование контента»:
распространяется на ресурсы ворующие контент.
Заябись объяснение smail101.gif
Согласен
Поправил.
Фильтры определить невозможно, но изучать информацию о фильтрах стоит, чтобы не допускать ошибки.
цитата
01/12/09 в 18:33
Profity
Я думаю ТС хочет не попытаться определить по каким фильтром находится тот или иной ресурс, а составить список того, чего стоит избегать.
цитата
01/12/09 в 20:09
Христофор Бонефатьевич
Именно!
цитата
08/07/10 в 22:53
Христофор Бонефатьевич
up!
цитата
08/07/10 в 23:00
LOVE
а как определяете? интуитивно?
чтобы точно определять нужно же иметь огромную экспериментальную базу.
цитата
08/07/10 в 23:30
mickey
а как определить или сайт не под фильтром вообще?
цитата
09/07/10 в 09:21
Babloman
если денег приносит - значит не под фильтром
цитата
09/07/10 в 10:05
FXIX
Profity писал:
Я думаю ТС хочет не попытаться определить по каким фильтром находится тот или иной ресурс, а составить список того, чего стоит избегать.
Чтобы понять чего стоит избегать надо понять что вообще может гугель. Чтобы понять что может гугель надо не школотные статьи капитана очевидности читать а раскопать (хотя бы "осколки" урывки и наброски) научных работ, кандидатских и диссертаций на тему лингвистического анализа и синтаксического разбора людей и смежных коллективов которые или работают\работали в гугле\с гуглом или так или иначе работают в компаниях связанных с СЕ при больших жирных институтах. вот это охуительное чтиво. Если я вам расскажу что уже в 2001 году у гугла был алгоритм который с достаточной долей трастовости определял что "вот эти десять синнонимизированных статей с десяти сайтов" спизжены вон с того сайта. А статья спизженная и синнонимизированная одним человеком - определялась с 97% вероятностью. А еще могу рассказать что цепи маркова умерли после того как гугл применил достаточно четкий алгоритм определения существования словоформ (на базе 50-терабайтного корпуса текста была построена модель сочетаний частей речи (к примеру пары "междометие глагол" не существует в природе. и никто так не говорит. а всего 23 части речи кстати). были построены все возможные пары, на основе другого алгоритма определяющего по слову и контексту: часть речи\падеж\число\род\склонение на основе всех возможных для данного слова приставок-суффиксов-окончаний. И чтобы окончательно понять чего стоит избегать, надо покурить и наложить сверху экономическую модель самого гугла (чтобы понять насколько им выгодно или невыгодно применять тот или иной алгоритм (ведь массив сайтов их кровь и деньги. им невыгодно эту реку "сушить")). у них есть такие алгоритмы от которых можно на сраку упасть и не вставать целый день. но еще интересней смотреть вычитки наложений (ну гугель ведь не меценат. и качество\некачество выдачи вообще говоря коррелирует с деньгами. оценивается текущая выдача(клики-адсенсы-платные объявления-партнерские-денежная емкость аудитории и прочие прочие. накладывается алгоритм и снова оценивается выдача. если в общем случае людей-компаний-бабла-посещений стало меньше под строкой поиска то алгоритм тормозится. несмотря на его быть может революционность и вообще технологию "от 2020 года выпуска").
Новая тема
Ответить
Эта страница в полной версии