Close

Гугл пометил запрещенные страницы в роботс.тхт ошибкой и понизил траффик

Добрый день. Есть форум на vbulletin 3. Недавно упал траффик с гугла, я зашел в панель вебмастера и увидел, что как раз с момента падения около 20 тысяч страниц были помечены ошибкой "Доступ к отправленному URL заблокирован в файле robots.txt". В качестве примера приведены профили пользователей, которые действительно запрещены для индексации в роботсе. Прогнал сайт через бесплатный анализ pr-cy и он показал, что из индекса недавно вылетело 3000 страниц (это примерно 25% от все проиндексированных). Не понимаю почему так произошло, роботс последний раз трогал лет 6-7 назад и все было нормально. Почему именно сейчас вылезла такая проблема и как лучше поступить? Открывать для индексации профили, основная масса которых не содержит вообще никакого контента мне видится не самой разумной затеей. Тем более, что страниц с профилями в 2 раза больше, чем проиндексированных страниц с контентом.

Источник

Добавить комментарий