Close

Ошибка директив в файле robots.txt

Доброго времени суток, коллеги! Проверял файл робота в Яндексе и Гугле.  Яндекс  пишет, что все  хорошо, а Гугл написал, что есть 1 ошибка и 2 предупреждения и подсветил 3 строки:    Clean-Param: utm_source&utm_medium&utm_campaign, Crawl-Delay: 0.5,  Crawl-Delay: 5.
Как можно решить эту ситуацию? Если Яндекс поддерживает их, а Гугл нет, то стоит ли их убрать?

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-json/
Disallow: /wp-includes/
Disallow: /wp-content/
Disallow: /plugins/
Disallow: /search/
Disallow: /cart/
Disallow: /my-account/
Disallow: */?s=
Disallow: *sort=
Disallow: *view=
Disallow: *utm=
Disallow: /?s*
Disallow: */page/
Crawl-Delay: 5
 
User-agent: GoogleBot
Disallow: /wp-admin/
Disallow: /plugins/
Disallow: /search/
Disallow: /cart/
Disallow: */?s=
Disallow: *sort=
Disallow: *view=
Disallow: *utm=
Allow: /plugins/*.css
Allow: /plugins/*.js
Allow: /plugins/*.png
Allow: /plugins/*.jpg
Allow: /plugins/*.gif
 
User-agent: Yandex
Disallow: /wp-admin/
Disallow: /plugins/
Disallow: /search/
Disallow: /cart/
Disallow: */?s=
Disallow: *sort=
Disallow: *view=
Allow: /plugins/*.css
Allow: /plugins/*.js
Allow: /plugins/*.png
Allow: /plugins/*.jpg
Allow: /plugins/*.gif
Clean-Param: utm_source&utm_medium&utm_campaign
Crawl-Delay: 0.5
 
Sitemap: https://ldb.kz/sitemap.xml
Host: https://ldb.kz

Источник

Добавить комментарий