Смотрю робот.тхт запретов нет, тегов noindex нет, проблем с хостингом нет. Но в вебмастере любая страница пишет URL недоступен Google Индексация невозможна.
сайт https://ukr-baza.com.ua/
роботс https://ukr-baza.com.ua/robots.txt
———- Добавлено 21.01.2020 в 23:47 ———-
когда сайт делался роботс был заблочен, а сейчас открыт может из за этого? мб гугл не видит что уже запрет снялся?
petrov-I
Кривой роботс-то. С диким косячьем.
Wnet1992
да нормальный роботс что с ним не так? я пробывал его вообще удалять ситуация остаётся такой же
petrov-I
Wnet1992: да нормальный роботс что с ним не так? я пробывал его вообще удалять ситуация остаётся такой же
Ну как минимум сайтмап сверху убери и помести вниз. host снеси – устарела директива, теперь она вообще не нужна. Пропущенные строчки тоже снеси, формально после них директивы уже не учитываются.
Ну и проверяй файл на ошибки и запреты в панелях вебмастеров – там же всё предельно наглядно.
Wnet1992
гугл говорит что я сайт закрыл но он же не закрыт. этот роботс скопирован с моего другого сайта где все хорошо.
Гугл себя введёт как будто у меня там стоит
User-agent: *
Disallow: /
petrov-I
На редиректы сайт проверь. Че то на самом деле непонятное.
Wnet1992
домен нулячий, вчера SSL прикрутил.
вот яндекс всё ок начал бегать робот по сайту.
hubbiton
В выдаче по запросу robots.txt на первой странице находятся он-лайн генераторы этого файла. Воспользуйтесь и счастье наступит ))
Wnet1992
при чём здесь генератор? ГУГЛ говорит, что я закрыл сайт от роботов. Что Генератор? написать лишь бы написать?
Sitealert
Открой /css/.
hubbiton
Wnet1992, Вам же уже сказали, что пустые строки в этом файле – ошибка. Я Вам посоветовал генератор, который таких ошибок не делает. Но Вы же умнее гугла, а файл на сервере всё тот же, с ошибками. Продолжайте в том же духе, путь верный ))
Wnet1992
Смотрю робот.тхт запретов нет, тегов noindex нет, проблем с хостингом нет. Но в вебмастере любая страница пишет URL недоступен Google Индексация невозможна.
сайт https://ukr-baza.com.ua/
роботс https://ukr-baza.com.ua/robots.txt
———- Добавлено 21.01.2020 в 23:47 ———-
когда сайт делался роботс был заблочен, а сейчас открыт может из за этого? мб гугл не видит что уже запрет снялся?
petrov-I
Кривой роботс-то. С диким косячьем.
Wnet1992
да нормальный роботс что с ним не так? я пробывал его вообще удалять ситуация остаётся такой же
petrov-I
да нормальный роботс что с ним не так? я пробывал его вообще удалять ситуация остаётся такой же
Ну как минимум сайтмап сверху убери и помести вниз. host снеси – устарела директива, теперь она вообще не нужна. Пропущенные строчки тоже снеси, формально после них директивы уже не учитываются.
Ну и проверяй файл на ошибки и запреты в панелях вебмастеров – там же всё предельно наглядно.
Wnet1992
гугл говорит что я сайт закрыл но он же не закрыт. этот роботс скопирован с моего другого сайта где все хорошо.
Гугл себя введёт как будто у меня там стоит
User-agent: *
Disallow: /
petrov-I
На редиректы сайт проверь. Че то на самом деле непонятное.
Wnet1992
домен нулячий, вчера SSL прикрутил.
вот яндекс всё ок начал бегать робот по сайту.
hubbiton
В выдаче по запросу robots.txt на первой странице находятся он-лайн генераторы этого файла. Воспользуйтесь и счастье наступит ))
Wnet1992
при чём здесь генератор? ГУГЛ говорит, что я закрыл сайт от роботов. Что Генератор? написать лишь бы написать?
Sitealert
Открой /css/.
hubbiton
Wnet1992, Вам же уже сказали, что пустые строки в этом файле – ошибка. Я Вам посоветовал генератор, который таких ошибок не делает. Но Вы же умнее гугла, а файл на сервере всё тот же, с ошибками. Продолжайте в том же духе, путь верный ))