Master-X
Форум | Новости | Статьи
Главная » Форум » Поисковые Системы » 
Тема: Ограничения Гугла на количество страниц в карте сайта
цитата
06/07/11 в 16:09
 TGPtraffic_biz_inSect
Есть такие ограничения ?
Суть проблемы вот в чем. Тубовые сайты - на них куча внутренних страниц с видео - десятки тысяч бывают. КОгда сабмитишь карту сайта, то после какого-то числа внутренних урлов карта становится плохой для гугла, т.е. скажем 500 урлов - все ок, карта принята, 700 - уже крестик красный, карта плохая. Я не понимаю системы, есть ограничения какие-то на количество внутренних страниц ? При этом на одном сайте у меня порядка 10000 внутренних страниц засабмичено и все ок - принято ! А на остальных как я описал.
Всем спасибо и рейтинг по-максимуму.[*]
цитата
06/07/11 в 17:12
 goodlover
В инете есть общие рекомендации, погугли какие их правила ты мог нарушить.
Если всё ok и файлы не более 10 Мб, то всё должно быть в порядке.
500-700 урлов это дофига, имхо. Я такие разбиваю.
цитата
06/07/11 в 17:56
 iMediaCrew
у нас есть карты и с 30к урлов - ни чего, все нормально съедается
цитата
06/07/11 в 18:26
 awm_mark
так же, от 1к до 40к урлов на сиджах, все нормально
Скорее всего, какие-то урлы на 404 ведут у тебя
цитата
06/07/11 в 18:49
 Еugene
Ограничение у гугла до 40к страниц в 1 сайтмапе, можно инклудить файлы.
Если крестик красный - можно посмотреть какая ошибка и в какой строке. Скорее всего в урле какой-то левый символ попался.
цитата
06/07/11 в 18:51
 Христофор Бонефатьевич
Если на страницах есть трафик они проиндексируются и без карты.
И еще нужно чтобы внешние ссылки были на сайт, тогда будет хорошо индексироватся.
цитата
06/07/11 в 20:28
 TGPtraffic_biz_inSect
Ну ошибку по гуглу определить нереально, пишет вот что
Empty Sitemap
Your Sitemap does not contain any URLs. Please validate and resubmit your Sitemap[*]
цитата
06/07/11 в 20:29
 TGPtraffic_biz_inSect
goodlover, а как разбиваешь ?[*]
цитата
06/07/11 в 23:14
 shar
Есть файл sitemapindex.xml и в нем указаны все сайтмапы:
<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">

<sitemap>
<loc>http://site.com/sitemap1.xml</loc>
<lastmod>2011-06-02T18:06:57-04:00</lastmod>
</sitemap>

<sitemap>
<loc>http://site.com/sitemap2.xml</loc>
<lastmod>2011-06-02T18:06:57-04:00</lastmod>
</sitemap>

и т.д.

</sitemapindex>
У меня сайтмапов 25 штук, по 50,000 урлов в каждом. Вроде все ок icon_cool.gif
цитата
15/07/11 в 13:38
 lnkr32
Оффтопик: Постинг ссылок разрешен только по достижению 30 постингов или 30 дней с момента регистрации
у меня 600 мегабайт сайтмапы, 2.5 миллиона страниц - и все отлично - lilit1 точка com/sitemap.xml - гугл кушает их, и каждый день выкачивает сайтмап что бы еще что то скушать. причем смотрит он релевантнее.. на то что посещается - отслеживая по тулбару или аналитику, не посещаемый контент он вообще не индексирует.


Эта страница в полной версии