Master-X
Регистрация
|
Вход
Форум
|
Новости
|
Статьи
Главная
»
Форум
»
Поисковые Системы
»
Тема:
Файлы Sitemap
Новая тема
Ответить
цитата
25/04/11 в 10:39
-=SabMyth=-
Что в них должно быть и где их взять ?
гуглу они вообще необходимы или не критично?
P.S. Сиджи.
цитата
25/04/11 в 10:48
Sergeyka
абсолютно не критично
никогда вообще не создавал эти файлы ни на Сиджах ни на Блогах
гугл сам найдет что ему нужно
а вообще софт есть который создает сайтмап
цитата
25/04/11 в 10:53
-=SabMyth=-
а тогда еще вопрос, что надо прописать для сиджев в robots.txt ?
цитата
25/04/11 в 10:57
dDan
Зависит от того что ты хочешь / не хочешь чтобы у тебя индексилось.
По поводу сайтмап, я юзаю его, разницы не вижу между сайтами с ним и без него, просто в гуглвебмастерс тулз он просит карту, поэтому для ВП юзаю плагины
цитата
25/04/11 в 11:03
x123p
теоретически сайтмапа позволяет быстрее индексить все. но на практике я не видел разницы. ну а в роботс на сидже я бы занес запрет индекса страниц логина в админки и мот еще странице добавления трейда.
цитата
25/04/11 в 11:04
-=SabMyth=-
dDan писал:
Зависит от того что ты хочешь / не хочешь чтобы у тебя индексилось.
Хочу, что бы сайт проинтексировался и выдачи был, а то по 4 захода в сутки с гугла (
Люди добрые, может поможете мне, подскажите что сделать надо ? В личке или в аське
цитата
25/04/11 в 11:30
Sergeyka
-=SabMyth=-:
шипну на ушко - я ничего не прописываю...
вообще. тока тссс
скинь в личку урл сиджа, гляну
все обычно на поверхности и обычно все просто, просто не все это видят
цитата
25/04/11 в 11:43
dDan
-=SabMyth=- писал:
Хочу, что бы сайт проинтексировался и выдачи был, а то по 4 захода в сутки с гугла (
Люди добрые, может поможете мне, подскажите что сделать надо ? В личке или в аське
От robots.txt независит кол-во трафа у тебя. Роботс.тхт может ограничить индексацию какихто страниц, например админки или какието рабочие директории.
Пациента кидай в тред подумаем коллективно где ошибки у тебя
цитата
25/04/11 в 11:45
-=SabMyth=-
dDan
Цитата:
Пациента кидай в тред подумаем коллективно где ошибки у тебя
1
Последний раз редактировалось: -=SabMyth=- (
05/04/12 в 16:56
), всего редактировалось 1 раз
цитата
25/04/11 в 11:58
Sergeyka
скинул в личку все что вижу
продублирую
может многим полезно будет
Цитата:
Привет!
То что я вижу
1. метатеги - в топку
<META content="nylon, porn, fetish, images, fresh nylon, free nylon, lesbian nylon, nylon orgies, teen nylon, nylon images, galleries nylon, lycra nylon, shiny nylon" name=keywords>
<META content="Sexy stockings, naughty nylon: never-seen, 100% free hi-res pics. Nylon orgies, lesbians and more. " name=description>
полностью переделать, зачем тебе кей porn? в них?
Я обычно забиваю СЧ
выбири кейворд по которому будешь продвигать, например Nylon Porn, далее идем сюда
http://www.keyworddiscovery.com/search.html
вбиваешь этот кей туда и выдавшие словосочетания у которых траф норма - вбиваешь name=keywords
Далее просишь или заказываешь грамотного дескописателя чтобы он тебе написал name=description - 200-300 символов. И даешь список - 2-3 кейворда которые должны обязательно присутствовать в этом дескрипшине. Кейворды берешь естественно из name=keywords
2. Тайтл сиджа в топку
<TITLE>FRESH hi-end NYLON PORN and NYLON FETISH Images daily: Nylon Godess</TITLE>
это ерунда
в тайтле должны быть те словосочетания по которым продвигаешь сидж например Nylon Porn, Sex In Nylon, Nylon Porn Hardcore (это пример!!!)
и все никакой лишней информации типа more fresh porn
3. ссылки
анкоры к ссылкам расставляешь в соответствии с пунктом 2, т.е. ссылки с 3 анкорами. которые в тайтле
4. Текст на морде сиджа - гуд, попроси дескописателя чтобы он переработал его в соответствии с твоими кеями по которым раскручиваешь сидж (п. 2)
5. Откель в индексе у гугла страницы типа
http://www.nylongodess.com/index.shtml?page=16
это дубли морды сиджа, эти ссылки либо убить, либо сделать уникальными
6. у тебя в индексе гугла паги типа
http://nylongodess.com/nylon-porn-sex/content/?MC4xLjcuMzU0LjQyNQ2
которые редиректят либо на галю либо на трейд, я так понимаю это особенность скрипта, походу по этому у тебя сайт в попе, запрети индексацию в робот.тхт этих страниц, это оут скрипта
7. Я бы добавил на домен галь, т.е. взял у спона, переделал (добавил бы текстов и метатеги) и залил бы, тем самым увеличил число страниц с контентом уникальным.
8. Возможно в папке бы поставил еще блог с уникальным контентом.
9. ссылки с хороших ресов, желательно блогов по теме. Если бюджета нет, делай сплоги/блоги сам по нише и ставь с них ссылки
цитата
25/04/11 в 12:03
dDan
+ пустые альты у картинок, лишний кей не лишний ;)
цитата
25/04/11 в 12:05
Sergeyka
dDan:
ага, за альты +1
цитата
25/04/11 в 12:14
-=SabMyth=-
Цитата:
5. Откель в индексе у гугла страницы типа
http://www.nylongodess.com/index.shtml?page=16
это дубли морды сиджа, эти ссылки либо убить, либо сделать уникальными
Когда запускал архивы были, потом удалил их.
цитата
25/04/11 в 12:21
Sergeyka
-=SabMyth=-:
физически. эти паги есть на дедике, страницы открываются, значит не удалил
нужно удалить, либо прописать в темплее архива
<link rel="canonical" href="http://www.nylongodess.com/"/>
и
<meta name="Robots" content="noindex">
это в темплее архива
цитата
25/04/11 в 12:26
-=SabMyth=-
Архивный страниц физически нет, они были прописаны только в темплейте.
цитата
25/04/11 в 12:31
Sergeyka
ну смотри
http://www.nylongodess.com/index.shtml?page=16
открывается?
и гугл ее видет что она открывается и не редиректит никуда
нужно тогда прописать в htaccess 301 редирект с этих паг на морду, со временем гугл уберет эти страницы из индекса, пока же они есть и считаются дублями
цитата
25/04/11 в 12:33
-=SabMyth=-
в htaccess сейчас вот что
GeoIPEnable On
ErrorDocument 401 /index.shtml
ErrorDocument 404
http://nylongodess.com/index.shtml
ErrorDocument 500
http://nylongodess.com/index.shtml
RewriteEngine On
RewriteRule ^nylon-fetish/[-0-9a-z]*/(.*)$ str/out.php?l=%{QUERY_STRING}&u=../ftt2/o.php?u=[GAL_PHP] [L]
RewriteCond %{HTTP_USER_AGENT} ^wget.*$ [NC]
RewriteRule /* - [F]
RewriteCond %{ENV:GEOIP_COUNTRY_CODE} CN [NC]
SetEnvIf GEOIP_COUNTRY_CODE CN DenyCountry
Deny from env=DenyCountry
Как правильно будет прописать ?
цитата
25/04/11 в 12:39
Sergeyka
вот честно не скажу как правильно прописать в данном случае 301 редирект...
может кто из знающих эти тонкости подскажет
ЗЫ
кстати
ErrorDocument 404
http://nylongodess.com/index.shtml
это очень не правильно
не поленись, сделай 404 страничку со ссылкой в центре на морду
отсутствие 404 страницы это минус в ранжировании
цитата
25/04/11 в 14:41
ad
Sergeyka писал:
Далее просишь или заказываешь грамотного дескописателя чтобы он тебе написал name=description - 200-300 символов. И даешь список - 2-3 кейворда которые должны обязательно присутствовать в этом дескрипшине. Кейворды берешь естественно из name=keywords
в результатах поиска Гугль показывает только первые 170 символов из description, т.е. 2-3 кейворда желательно впихнуть в первые 170 символов
цитата
25/04/11 в 15:11
Sergeyka
ad:
я не мелочусь и заказываю на 200 символов всегда, иногда на 300
показывать то он показывает в сниппете 170, но видит он все, и это есть гуд и это надо пользовать
цитата
25/04/11 в 18:01
sergio21
Sergeyka
дал отличные рекомендации.
я бы добавил только, что не все словосочетания, которые
-=SabMyth=-
вписал в метатэг "keywords", действительно в тему.
например, по запросу "lycra nylon" гугл не выдает порнухи. значит, таким кеям не место в метатэге "keywords".
цитата
25/04/11 в 18:07
-=SabMyth=-
Всем огромное спасибо, если есть еще дополнения, обязательно возьму на заметку.
Sergeyka
Тебе вообще респект
Подскажите плиз как мне теперь htaccess подправить под описание которое было выше ?
цитата
25/04/11 в 18:48
Synchro
sergio21 писал:
например, по запросу "lycra nylon" гугл не выдает порнухи. значит, таким кеям не место в метатэге "keywords".
А нужен ли этот keywords вообще? Имхо гугл его игнорит сто лет как уже. Про тайтл тоже не согласен. Имхо нужно 1 читабельное короткое предложение с максимальным вхождением основных ключевиков. Спам-тайтлы типа
Код:
<title>nylon porn, nylon sex, stockings sex</title>
однозначно формируют снипет с более низким CTR, нежели чем тайтлы на "человеческом языке". Про галеры тоже не совсем понял. Это на каждую галерку уник деск и тайтл? Он опухнет столько контента заказывать, мне так кажется. Остальное - да, прально все.
цитата
25/04/11 в 19:04
Sergeyka
Synchro:
ну да на каждую галерку, иначе на выходе получишь сотни урлов абсолютно одинаковых для гугла.
не кто же не говорит миллион за раз, я добавлял по 10-20 галь в месяц, вполне бюджетный вариант
Последний раз редактировалось: Sergeyka (
25/04/11 в 19:06
), всего редактировалось 1 раз
цитата
25/04/11 в 19:05
Sergeyka
-=SabMyth=-:
создай топег в Программах и попроси людей написать код 301 редиректа со страниц типа 1 на страницу типа 2
там быстрее ответят
Стр.
1
,
2
>
последняя »
Новая тема
Ответить
Эта страница в полной версии