Close

Закрывать или нет результат поиска?

Интернет-магазин.
Лет 10 назад реализовал возможность сортировки по размеру и закрыл все эти результаты в robots.
Несмотря на запрет Яндекс с удовольствием кушал эти страницы и многие из них попали в выдачу и резвенько так давали до 10% входящего траффика. В 2016-м по совету решил открыть эти результаты и траффик с этих страниц удвоился, но их как то уж очень много попало в индекс. Ровно через год Яндекс сказал свое "фи" и выкинул почти все эти страницы в недостаточно качественные. Ссылок на них нет, поэтому недостаточно качественные вывалились из индекса, а новые он и не индексирует, хотя народ ходит – народ то выбирает параметры. В целом оставшиеся в индексе страницы (их около 40) продолжают привлекать траффик по НЧ запросам и сейчас это около 5% от всех входящих.
Сегодня нашелся еще один спец, который ухмыльнулся и сказал, что если я не хочу продолжения падения сайта – эти страницы нужно заблокировать в robots.

– стоит ли блокировать?
– как сохранить траффик? Неужели "выловить" все траффиковые и сделать по ним посадочные тэги?
– не потому ли они сохранились в индексе, что они дают траф?

Источник

Добавить комментарий