Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Что за зверь - пингвин?
цитата
11/05/12 в 15:32
 orvas
Главной задачей обновления была борьба со спамом на страницах сайтов. Но как оказалось, апдейт Пингвин коснулся всех вебмастеров, вне зависимости от того, занимались они белыми или черными методами продвижения. На многих СЕО форумах, как зарубежных, так и отечественных, появились предположения, что СЕО в том виде, в каком существовало прежде, больше не существует — СЕО умерло. Спешу вас обрадовать, СЕО не умерло, но вам придется стать хитрее.

Вопрос №1, который мучает сейчас вебмастеров звучит так: «Что это за алгоритм и как с ним бороться?»

Наша компания (Microsite Masters ) занимается СЕО продвижением и у нас есть уникальные данные по истории ранжирования для тысячи сайтов. Некоторые из этих сайтов по прежнему занимают верхние строчки в выдаче, другие резко упали. Надеемся, проведенный нами анализ покажет вам направление, к котором следует развивать свои сайты.

В первую очередь, подозрение вебмастеров пало на переспам некачественными ссылками. Мы решили проверить эту теорию, уделив особое внимание анализу текстов анкоров входящих ссылок. В частности нас интересовало, процент точных вхождений продвигаемого запроса (например, “blue widgets” ) и процент «естественных» анкоров (например “blue widgets | the number one widget site”, “click here” или не имеющих прямого вхождения ключевого запроса, используемого для роста позиций продвигаемого сайта).



Что же мы обнаружили? Попавшие под действие Пингвина сайты имели по меньшей мере 60% ссылок с точным вхождением ключевого запроса, по отношению к общему числу ссылок. Но это не гарантирует, что вы попадете под фильтр т.к. в нашей выборке были сайты с процентом вхождения еще выше. В любом случае, при проценте ссылок с точным вхождением менее 50% вы точно не попадете под действие фильтра.

Этот график только подтверждает сказанное. Только 5% сайтов попавших под фильтр имели в структуре урла 2 или более из 5 наиболее часто используемых анкоров. С другой стороны, у половины уцелевших сайтов, такая же картина. По нашему мнению, это убедительный пример того, что Гугл запустил фильтр, который накладывает санкции за ссылочную переоптимизацию.

Но это только половина нашего исследования.

Другие важные факторы.

В своем недавнем заявлении, Мэтт Каттс дал определение искусственной релевантности и даже привел пример переоптимизированного текста. Тем самым он намекает, что Гугл замечает нерелевантные ссылки и считает, что они получены не естественным способом. В принципе, в этом нет ничего нового.

Мы решили это проверить и проанализировали сайты на предмет релевантности ссылающихся сайтов.





Мы выяснили, что у пострадавших сайтов было очень мало ссылок с сайтов той же тематики. В принципе, в этом нет ничего плохого, но в этом случае их надо разбавлять ссылками с релевантных сайтов.

Заключение: чего добивается Гугл?

Как и прежде, Гугл хочет добиться более релевантной выдачи и пресечь манипуляцию с ссылками. Для этого он отдает предпочтение «естественным» ссылкам с релевантных сайтов.

Из этого можно сделать вывод: Гугл пытается отменить или обесценить значение «анкорного текста» и заменить его «тематической или контентной релевантностью» как основным критерием качества ссылки.

Ссылки с анкорным тестом используются для манипуляции с выдачей уже более 10 лет. Эти манипуляции и вызвали этот апдейт. Сейчас для удержания позиций необходимо не просто получить ссылку, а получить ее с сайта с релевантным контентом.

Тем более, научный прогресс не стоит на месте и технология определения тематики страниц значительно шагнула вперед. Я сам пользуюсь подобной технологией.

Подведу итоги: влияние анкорного текста на ранжирование сайтов уменьшилось, в отличие от релевантности.

Что теперь делать?

1. Создание микросайтов.
Микросайт — это страничка в интернете, которая содержит необходимый минимум полезной и релевантной информации, так же там есть и ссылка на основной сайт. Гуглу нравится, когда пользователи находят на сайтах имнно то, что ищут. Поэтому он считает сайты, удовлетворяющие запросам пользователей, более авторитетными. Создавая качественные микросайты, вы увеличиваете свое присутствие в данной нише и авторитет, который в конечном итоге перейдет на основной сайт.


2. Качественная сетка блогов.
Это черный метод продвижения, но он до сих пор работает. Под сеткой блогов понимается группа микросайтов). Но только она должна быть по настоящему качественной и с хорошим контентом.



3. Разбавление анкорных текстов.
Для того, что бы ссылка выглядела естественной, нужно что бы минимум 50% ваших ссылок содержали анкор, отличный от ключевого слова которое вы продвигаете.

Как же должен выглядеть анкорный текст? Собранные данные, показали, что из анкоров “MySiteDomain.com”, “MySiteDomain”, “http://mysitedomain.com”, “http://www.mysitedomain.com”, “The Title of My Website”, “here”, и “the title of one of my H1′s ( это не кейворд который я продвигаю) обычно использовались как анкоры на менее всего пострадавших сайтах. Использование таких анкоров будет хорошим подспорьем при продвижении сайта.




4.Играть по правилам Гугла.

Если вышеописанные способы только помогали создать образ «белого и пушистого» сайта в глазах Гугла, то сейчас я хочу предложить воспользоваться методами «белого» сео.

Пишите гостевые посты на релевантных сайтах, используйте социальные сети, в том числе и вирусный маркетинг, который приносит не только трафик но и множество естественных ссылок.



5.Делайте СДЛ.
Просматривая множество сайтов, я заметил, что сайты, которые позиционировали себя как бизнес пострадали гораздо меньше чем создаваемые исключительно с целью монетизации. Прежде всего, Гугл для них не единственный источник трафика, что делает их менее зависимыми от его нововведений. Кроме того, наличие дополнительных источников трафика улучшает их позиции в самом Гугле.

Заключение.
Несмотря на то, что СЕО становится все сложнее, заработать там все еще можно Главное не лениться.

Оригинал статьи на английском языке: http://www.micrositemasters.com/blog/penguin-analysis-seo-isnt-dead…-to-do-so/
цитата
11/05/12 в 16:36
 Sergeyka
вот тут более подробный перевод ИМХО с комментариями
http://anokalintik.ru/kak-prodvigat-sajty-posle-algoritma-google-pingvin.html
цитата
11/05/12 в 17:02
 Mоrgan
Если бы было все так, как тут написано, падало бы только ВЧ, ну и может СЧ. Но ведь грохнулись и все низкочастотные запросы, которые вообше никакими ссылками не продвигались.
цитата
11/05/12 в 21:29
 orvas
Mоrgan писал:
Если бы было все так, как тут написано, падало бы только ВЧ, ну и может СЧ. Но ведь грохнулись и все низкочастотные запросы, которые вообше никакими ссылками не продвигались.

Пенальти на весь сайт накладывается.
цитата
11/05/12 в 21:45
 sergio21
Цитата:
Google хочет заменить или обнулить влияние «анкорного текста» заменив его «тематической или контентной релевантностью» как основными критерием релевантности (или качества) ссылки.

Цитата:
...если у вас будет процент ссылок с точным вхождением менее 50% — вы не попадете под действие фильтра.


другими словами, анкорный текст пох, главное - релевантные сайты-доноры и качественный сайт-реципиент с хорошими показателями поведения юзеров?
почему же тогда вылетели сайты по ВЧ-запросам, имевшие релевантные ссылки и хорошие показатели? (имею перед глазами пример такого сайта)

с одной стороны пишут, что анкорный текст не играет роли, и в то же самое время пишут, что точных вхождений продвигаемого запроса должно быть не более 50%.
где логика?
цитата
11/05/12 в 22:14
 aewm
Не страшен так сам алгоритм, как советы которыми все агенства сейчас пытаются поделиться. ИМХО сейчас лучше отсидеться.
цитата
11/05/12 в 23:19
 Emperor
orvas писал:
Пенальти на весь сайт накладывается.


фильтр накладывается на запрос->страница.
цитата
12/05/12 в 00:59
 Lenskiy
на самом деле все эти новые правила вовсе и не новые. Они работали уже очень давно. И кто очень внимательно следит за своим сео, давно это заметили. заметили, что прямыми анкорами двигать все сложнее и сложнее. А чистые ссылки, порой дают больший эффект. Надо только знать где их размещать.
Когда прокаченный прямыми анкорами сайт приходил в топ он успевал набрать единичку а то и две по средненькому запросу. И часто торчал с этой единичкой, в середине топа, под страницами без всякого пуза. Но большинству вебмастеров, некогда заниматься анализом. Они привыкли работать по привычке.
Гугл ну всяко намекал что можно и по-другому продвигаться, но разве можно учить опытного сеошника?
Теперь гугл просто стал таких вебмастеров банить. Вот и вся история.
Кстати адалта она коснулась в самой меньшей степени. Плюс адалта в том что даже такие застрявшие в сео 00-х годов, соблюдали хотя бы релевантность контента. Но тут больше культура отрасли сыграла свою роль. Воспитала в них это условие с ранних лет.
цитата
12/05/12 в 10:04
 Mоrgan
Lenskiy 12/05/12 в 01:59
__________________________
Ага, ага. Тогда скажи почему под фильтр попали сайты которые вообше фактически не продвигались? Никаких покупок или обменов линками, хоть с прямым анкором, хоть с каким?
цитата
12/05/12 в 10:17
 Sergeyka
Mоrgan: может переоптимизация по ключевикам на самом сайте?
цитата
12/05/12 в 10:23
 Mоrgan
Sergeyka 12/05/12 в 11:17
_________________________

Да обычные СЖи со стандартными ФХГ и базовыми десками. Причем с точно такими же ФХГ(ниша то узкая) куча других СЖеев по прежнему висят себе в топе у гугли.
Причем пойми я не только за сови СЖеи говорю. У меня много друзей и знакомых в нише. У кого то вообше Пингвин прошел мимо, у других все скосил под корень. А у кого то половину забанил, половину не тронул. Хотя СЖи одинаковые.
Короче вижу огромный рандом у гугли.
цитата
12/05/12 в 10:29
 bizz
Mоrgan писал:
Lenskiy 12/05/12 в 01:59
__________________________
Ага, ага. Тогда скажи почему под фильтр попали сайты которые вообше фактически не продвигались? Никаких покупок или обменов линками, хоть с прямым анкором, хоть с каким?


предположу что переспам текста и внутренняя оптимизация сыграла не последнюю роль, ссылки сковзные через весь сайт, оптимизированные под каждую категорию и тп
цитата
12/05/12 в 10:43
 Mоrgan
bizz 12/05/12 в 11:29
_____________________

Ну частично соглашусь. Там где я дески для галер подправлял с учетом нужных мне ключевиков срезало почти в ноль. Но есть простые одностраничные СЖи, где тупо спонсорские ФХГ, со стандартными десками. ИХ тоже срезало процентов на 70.
цитата
12/05/12 в 11:09
 Sergeyka
Mоrgan писал:
где тупо спонсорские ФХГ, со стандартными десками


не уникальность
цитата
12/05/12 в 11:21
 orvas
Emperor писал:
фильтр накладывается на запрос->страница.

Фильтры разные бывают.
цитата
12/05/12 в 11:28
 LOVE
Цитата:
Микросайт — это страничка в интернете, которая содержит необходимый минимум полезной и релевантной информации, так же там есть и ссылка на основной сайт


У гугла нет аффилейт фильтра?
Да и вообще странно звучит совет.

Цитата:
почему под фильтр попали сайты которые вообше фактически не продвигались?


алгоритм просто может быть не сильно точным.
вы представьте сколько там всего считается.
расчет субъективен, не сошлись цифры и все.
цитата
12/05/12 в 11:46
 orvas
А вообще, я со многим согласен в этой статье. Может и не всё на 100% верно, но большая часть. От себя добавлю - у яндекса давно в эту сторону алгоритмы заточены. Там тематика доноров давно более важна, чем количество ссылок и анкоры.
цитата
12/05/12 в 11:59
 LOVE
Цитата:
у яндекса давно в эту сторону алгоритмы заточены. Там тематика доноров давно более важна, чем количество ссылок и анкоры.


Ну это смотря где.
Алгоритмы сегментированы.
Допустим коммерческие тематики считаются так, информационные иначе и так далее.
Просто если не хочется влететь в дальнейшем лучше сразу делать все максимально натурально (но это и бюджет увеличивает). Если работает не натуральное, трудно себя заставить увеличивать бюджет ради будущего, и не факт, что это понравится алгоритмам будущего или, что алгоритмы будут серьезно умнее.

Не знаю как в гугле.
цитата
12/05/12 в 13:00
 Mоrgan
Sergeyka писал:
не уникальность


Ну да, а другие такие же и даже хуже СЖи с теми же галерами и десками уникальны что ли?
цитата
12/05/12 в 13:05
 Mоrgan
LOVE писал:

Просто если не хочется влететь в дальнейшем лучше сразу делать все максимально натурально (но это и бюджет увеличивает).


А как СЖ(ТГП) могут быть натуральными/ненатуральными? В любом случае это страница с тумбами ведушими на галеры. Плюс если СЖ нишевый, то логично что деск к каждой галере будет включать ключевые слова. Не потому что это оптимизация под гугл, просто деск - это описание того что на галере. А из песни слов не выкинеш.
цитата
12/05/12 в 14:40
 LOVE
Натуральны или нет любые измеримые параметры.
По темам, типам сайтов у ПС есть клеше натуральности.
цитата
12/05/12 в 14:49
 Sergeyka
Mоrgan: присмотрись может и уникальны, когда с гуглом имеешь дело лучше на случай не уповать, могла Панда твой рес зацепить, она в аккурат перед Пингвином ебнула за несколько дней и не известно после этого запускали или нет
цитата
12/05/12 в 17:24
 X-dream
сайты у которых все страницы пролинкованы с траставых сайтов - не пострадали вроде.
цитата
16/05/12 в 22:18
 CyberDesire
ps: медленно, но траф растёт. т3рчлп
цитата
17/05/12 в 10:34
 Zmey Горыныч
Lenskiy писал:
на самом деле все эти новые правила вовсе и не новые.

Именно, мне пингвин только на пользу пошёл, т.к. расчистил дорогу правильно продвигаемым сайтам. Еще после пертурбаций подобных клиенты на продвижение по СЕО сразу появляются.
Стр. 1, 2  >  последняя »


Эта страница в полной версии