Последние 2 дня пишет такое
Не удалось получить ваш файл robots.txt. Сайт не будет сканироваться до тех пор, пока Google не получит актуальную версию этого файла или сможет использовать последнюю рабочую версию
Ничего не меняли, но начались такие проблемы.
Плюс половину урлов не можем добавить в гугл серч консоль: пишет, что не может быть проиндексирован из-за блокировки в роботсе. Понятное дело, что проверили всё, ничего не блокируется, роботс отдаёт 200 код, мета тегом не закрыт.
Уже испробовали миллион идей. Удалили все заблокированные айпи (вдруг гуглбот туда попал), удалили плагины, которые были под подозрением.
С хостером уже целый день общаемся – ничего.