Close

Помощь с дублями

№1.один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/stranica/ оригинал http://www.site.ru/STRANICA/ дубль
http://www.site.ru/url/ оригинал http://www.site.ru/URL/ дубль
Как решить проблему дублей?
1. Уникализировать контент на страницах для того, чтобы система не считала их дублями и с них шел трафик на сайт
2. Закрыть страницы от индексации страницы с верхним регистром в robots.txt
3. Настроить в Яндекс.Вебмастере в разделе «Регистр имени сайта» нужный регистр
4. Настроить 301 редирект с версии со слешом на без слеша и с верхнего регистра на нижний регистр
№2 один вар-т ответа
В Яндекс.Вебмастере выпадают страницы, как дубли следующих видов:
http://www.site.ru/ оригинал http://www.site.ru/?utm_sourse123456 дубль
http://www.site.ru/url/ оригинал http://www.site.ru/url/?utm_sourse12121212 дубль
Как решить проблему дублей?
1. Добавить в robots.txt строку: Disallow: /*?utm_sourse*
2. Добавить в robots.txt строку: Disallow: /?utm_sourse*
3. Прописать на подобных страницах тег <meta name =“robots” content=”index,nofollow”/>
4. Ничего не делать, такие страницы со временем сами выпадут из индекса
№3 несколько вар-тов
Найдите ошибки в файле robots.txt:
User-agent: *
Disallow: /yupe/backend*
Disallow: /*/default*
Disallow: /en/
Disallow: /*?_utl_t
Disallow: /*login
Disallow: /registration
Disallow: /*?ajax=
Disallow: /*?service=
Disallow: *default*
Allow: /en/*
Host: https://site.ru
Sitemap: https://site.ru/sitemap.xml
Crawl-Delay: 5
1. Директива crawl-Delay лишняя, т.к. не используется ни Google, ни Яндекс
2. Директива Allow не используется в файле robots – она является устаревшей
3. Правило Disallow: *default* закрывает все страницы, в URL которых есть «default», поэтому правило Disallow: /*/default* не имеет смысла
4. Правило Allow: /en/* открывает все, что закрыто правилом Disallow: /en/
5. В директиве Sitemap url сайта нужно писать без протокола http или https. Верно будет написать Sitemap: site.ru/sitemap.xml
6. Директива Host лишняя, т.к. не используется ни Яндекс, ни Google

№4 несколько вар-тов
При анализе Яндекс.Вебмастера было выявлено, что выпадают из индекса карточки товара как дубли. Карточки имеют одинаковые мета-теги и контент. Их отличие в размере изделия и цвете. Что необходимо предпринять, чтобы избежать выпадения таких страниц из индекса?
1. Прописать на карточках в коде: <meta name=”robots” content=”noindex” /> 
2. Уникализировать мета-теги и тексты на странице, прописать цвет и размер в мета-тегах и текстах, а также в характеристиках
3. Объединить данные карточки товаров в одну карточку с вариантами товаров. Внутри одной карточки товара должна быть возможность выбора размера и цвета.
4. Оправить страницы на индексацию через Яндекс.Вебмастер



Спасибо заранее

 

Источник

Добавить комментарий