Close

crawl budget в 50-60 страниц в сутки для сайта на 8000 страниц: плохо, хорошо или норма

Есть сайт:
В индексе google по search console 8000 страниц.

1) В среднем в день согласно search console googleBot Обходит 50-60 страниц. (если правильно понимаю усредненный показатель сканирования это и есть — crawl budget?)

Говорит ли такое соотношение "обхода в сутки" / "количество страниц в индексе Google" о оценке качества сайта с точки зрения Google?
Как повысить количество страниц обхода и стоит ли за этим гнаться и фокусировать внимание на этом?

2) На сайте есть 3000-5000 страниц googlebot ходит крайне редко (определялось по логам), также основная часть их этих страниц согласно search console не имеет кликов по причине показа на позициях за 50.
Нет возможности повлиять на качество этих страниц, добавив какой-либо контент.

Стоит ли закрывать такие страницы от индексации в надежде на улучшение общего качества сайта и улучшения показателя обхода googlebot остальных страниц сайта?

Источник

Добавить комментарий