Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Файлы Sitemap
цитата
25/04/11 в 10:39
 -=SabMyth=-
Что в них должно быть и где их взять ?
гуглу они вообще необходимы или не критично?
P.S. Сиджи.
цитата
25/04/11 в 10:48
 Sergeyka
абсолютно не критично
никогда вообще не создавал эти файлы ни на Сиджах ни на Блогах

гугл сам найдет что ему нужно

а вообще софт есть который создает сайтмап
цитата
25/04/11 в 10:53
 -=SabMyth=-
а тогда еще вопрос, что надо прописать для сиджев в robots.txt ?
цитата
25/04/11 в 10:57
 dDan
Зависит от того что ты хочешь / не хочешь чтобы у тебя индексилось.
По поводу сайтмап, я юзаю его, разницы не вижу между сайтами с ним и без него, просто в гуглвебмастерс тулз он просит карту, поэтому для ВП юзаю плагины
цитата
25/04/11 в 11:03
 x123p
теоретически сайтмапа позволяет быстрее индексить все. но на практике я не видел разницы. ну а в роботс на сидже я бы занес запрет индекса страниц логина в админки и мот еще странице добавления трейда.
цитата
25/04/11 в 11:04
 -=SabMyth=-
dDan писал:
Зависит от того что ты хочешь / не хочешь чтобы у тебя индексилось.

Хочу, что бы сайт проинтексировался и выдачи был, а то по 4 захода в сутки с гугла (
Люди добрые, может поможете мне, подскажите что сделать надо ? В личке или в аське icon_rolleyes.gif
цитата
25/04/11 в 11:30
 Sergeyka
-=SabMyth=-: шипну на ушко - я ничего не прописываю...
вообще. тока тссс

скинь в личку урл сиджа, гляну

все обычно на поверхности и обычно все просто, просто не все это видят
цитата
25/04/11 в 11:43
 dDan
-=SabMyth=- писал:
Хочу, что бы сайт проинтексировался и выдачи был, а то по 4 захода в сутки с гугла (
Люди добрые, может поможете мне, подскажите что сделать надо ? В личке или в аське icon_rolleyes.gif

От robots.txt независит кол-во трафа у тебя. Роботс.тхт может ограничить индексацию какихто страниц, например админки или какието рабочие директории.
Пациента кидай в тред подумаем коллективно где ошибки у тебя
цитата
25/04/11 в 11:45
 -=SabMyth=-
dDan Цитата:
Пациента кидай в тред подумаем коллективно где ошибки у тебя

1

Последний раз редактировалось: -=SabMyth=- (05/04/12 в 16:56), всего редактировалось 1 раз
цитата
25/04/11 в 11:58
 Sergeyka
скинул в личку все что вижу
продублирую

может многим полезно будет

Цитата:
Привет!
То что я вижу
1. метатеги - в топку

<META content="nylon, porn, fetish, images, fresh nylon, free nylon, lesbian nylon, nylon orgies, teen nylon, nylon images, galleries nylon, lycra nylon, shiny nylon" name=keywords>
<META content="Sexy stockings, naughty nylon: never-seen, 100% free hi-res pics. Nylon orgies, lesbians and more. " name=description>

полностью переделать, зачем тебе кей porn? в них?

Я обычно забиваю СЧ
выбири кейворд по которому будешь продвигать, например Nylon Porn, далее идем сюда
http://www.keyworddiscovery.com/search.html
вбиваешь этот кей туда и выдавшие словосочетания у которых траф норма - вбиваешь name=keywords

Далее просишь или заказываешь грамотного дескописателя чтобы он тебе написал name=description - 200-300 символов. И даешь список - 2-3 кейворда которые должны обязательно присутствовать в этом дескрипшине. Кейворды берешь естественно из name=keywords

2. Тайтл сиджа в топку

<TITLE>FRESH hi-end NYLON PORN and NYLON FETISH Images daily: Nylon Godess</TITLE>

это ерунда

в тайтле должны быть те словосочетания по которым продвигаешь сидж например Nylon Porn, Sex In Nylon, Nylon Porn Hardcore (это пример!!!)

и все никакой лишней информации типа more fresh porn

3. ссылки
анкоры к ссылкам расставляешь в соответствии с пунктом 2, т.е. ссылки с 3 анкорами. которые в тайтле

4. Текст на морде сиджа - гуд, попроси дескописателя чтобы он переработал его в соответствии с твоими кеями по которым раскручиваешь сидж (п. 2)

5. Откель в индексе у гугла страницы типа http://www.nylongodess.com/index.shtml?page=16 это дубли морды сиджа, эти ссылки либо убить, либо сделать уникальными

6. у тебя в индексе гугла паги типа http://nylongodess.com/nylon-porn-sex/content/?MC4xLjcuMzU0LjQyNQ2 которые редиректят либо на галю либо на трейд, я так понимаю это особенность скрипта, походу по этому у тебя сайт в попе, запрети индексацию в робот.тхт этих страниц, это оут скрипта

7. Я бы добавил на домен галь, т.е. взял у спона, переделал (добавил бы текстов и метатеги) и залил бы, тем самым увеличил число страниц с контентом уникальным.

8. Возможно в папке бы поставил еще блог с уникальным контентом.

9. ссылки с хороших ресов, желательно блогов по теме. Если бюджета нет, делай сплоги/блоги сам по нише и ставь с них ссылки
цитата
25/04/11 в 12:03
 dDan
+ пустые альты у картинок, лишний кей не лишний ;)
цитата
25/04/11 в 12:05
 Sergeyka
dDan: ага, за альты +1
цитата
25/04/11 в 12:14
 -=SabMyth=-
Цитата:
5. Откель в индексе у гугла страницы типа http://www.nylongodess.com/index.shtml?page=16 это дубли морды сиджа, эти ссылки либо убить, либо сделать уникальными

Когда запускал архивы были, потом удалил их.
цитата
25/04/11 в 12:21
 Sergeyka
-=SabMyth=-: физически. эти паги есть на дедике, страницы открываются, значит не удалил

нужно удалить, либо прописать в темплее архива
<link rel="canonical" href="http://www.nylongodess.com/"/>
и
<meta name="Robots" content="noindex">

это в темплее архива
цитата
25/04/11 в 12:26
 -=SabMyth=-
Архивный страниц физически нет, они были прописаны только в темплейте.
цитата
25/04/11 в 12:31
 Sergeyka
ну смотри
http://www.nylongodess.com/index.shtml?page=16
открывается?

и гугл ее видет что она открывается и не редиректит никуда

нужно тогда прописать в htaccess 301 редирект с этих паг на морду, со временем гугл уберет эти страницы из индекса, пока же они есть и считаются дублями
цитата
25/04/11 в 12:33
 -=SabMyth=-
в htaccess сейчас вот что
GeoIPEnable On
ErrorDocument 401 /index.shtml
ErrorDocument 404 http://nylongodess.com/index.shtml
ErrorDocument 500 http://nylongodess.com/index.shtml

RewriteEngine On
RewriteRule ^nylon-fetish/[-0-9a-z]*/(.*)$ str/out.php?l=%{QUERY_STRING}&u=../ftt2/o.php?u=[GAL_PHP] [L]
RewriteCond %{HTTP_USER_AGENT} ^wget.*$ [NC]
RewriteRule /* - [F]

RewriteCond %{ENV:GEOIP_COUNTRY_CODE} CN [NC]

SetEnvIf GEOIP_COUNTRY_CODE CN DenyCountry
Deny from env=DenyCountry

Как правильно будет прописать ?
цитата
25/04/11 в 12:39
 Sergeyka
вот честно не скажу как правильно прописать в данном случае 301 редирект...

может кто из знающих эти тонкости подскажет

ЗЫ
кстати

ErrorDocument 404 http://nylongodess.com/index.shtml

это очень не правильно

не поленись, сделай 404 страничку со ссылкой в центре на морду

отсутствие 404 страницы это минус в ранжировании
цитата
25/04/11 в 14:41
 ad
Sergeyka писал:
Далее просишь или заказываешь грамотного дескописателя чтобы он тебе написал name=description - 200-300 символов. И даешь список - 2-3 кейворда которые должны обязательно присутствовать в этом дескрипшине. Кейворды берешь естественно из name=keywords
в результатах поиска Гугль показывает только первые 170 символов из description, т.е. 2-3 кейворда желательно впихнуть в первые 170 символов
цитата
25/04/11 в 15:11
 Sergeyka
ad: я не мелочусь и заказываю на 200 символов всегда, иногда на 300

показывать то он показывает в сниппете 170, но видит он все, и это есть гуд и это надо пользовать
цитата
25/04/11 в 18:01
 sergio21
Sergeyka дал отличные рекомендации.
я бы добавил только, что не все словосочетания, которые -=SabMyth=- вписал в метатэг "keywords", действительно в тему.
например, по запросу "lycra nylon" гугл не выдает порнухи. значит, таким кеям не место в метатэге "keywords".
цитата
25/04/11 в 18:07
 -=SabMyth=-
Всем огромное спасибо, если есть еще дополнения, обязательно возьму на заметку.
Sergeyka Тебе вообще респект smail54.gif
Подскажите плиз как мне теперь htaccess подправить под описание которое было выше ?
цитата
25/04/11 в 18:48
 Synchro
sergio21 писал:
например, по запросу "lycra nylon" гугл не выдает порнухи. значит, таким кеям не место в метатэге "keywords".
А нужен ли этот keywords вообще? Имхо гугл его игнорит сто лет как уже. Про тайтл тоже не согласен. Имхо нужно 1 читабельное короткое предложение с максимальным вхождением основных ключевиков. Спам-тайтлы типа
Код:

<title>nylon porn, nylon sex, stockings sex</title>

однозначно формируют снипет с более низким CTR, нежели чем тайтлы на "человеческом языке". Про галеры тоже не совсем понял. Это на каждую галерку уник деск и тайтл? Он опухнет столько контента заказывать, мне так кажется. Остальное - да, прально все.
цитата
25/04/11 в 19:04
 Sergeyka
Synchro: ну да на каждую галерку, иначе на выходе получишь сотни урлов абсолютно одинаковых для гугла.

не кто же не говорит миллион за раз, я добавлял по 10-20 галь в месяц, вполне бюджетный вариант

Последний раз редактировалось: Sergeyka (25/04/11 в 19:06), всего редактировалось 1 раз
цитата
25/04/11 в 19:05
 Sergeyka
-=SabMyth=-: создай топег в Программах и попроси людей написать код 301 редиректа со страниц типа 1 на страницу типа 2

там быстрее ответят
Стр. 1, 2  >  последняя »


Эта страница в полной версии