Многие сайты разрешают перепечатку своих статей, но такое не очень одобряется поисковиками из-за не уникальности подобного материала.
Идея, скриптом заполнить пробелы ками нибудь символами, чтоб текст получился 100% уникальным, а при выводе на экран скрипт, убирая всё лишнее, сгенерирует нормальный текст.
Вопрос: где точно поисковики берут информацию, с исходников на сервере или анализирует конечную информацию, которая будет вводиться на экран?
SILL
alankhab: Здравствуйте! Помогите новичку!
Многие сайты разрешают перепечатку своих статей, но такое не очень одобряется поисковиками из-за не уникальности подобного материала.
Идея, скриптом заполнить пробелы ками нибудь символами, чтоб текст получился 100% уникальным, а при выводе на экран скрипт, убирая всё лишнее, сгенерирует нормальный текст.
Вопрос: где точно поисковики берут информацию, с исходников на сервере или анализирует конечную информацию, которая будет вводиться на экран?
Клоакинг давно придуман)
И ПС это понравится не больше чем копипаст)
Закажите лучше дешевый рерайт
alankhab
SILL: Клоакинг давно придуман)
И ПС это понравится не больше чем копипаст)
Закажите лучше дешевый рерайт
СПС, и всё же, как ПС отслеживает новые статьи на сайе?
SmileP
alankhab: чтоб текст получился 100% уникальным
Такхого пипадет под илтрацию.
Вот 100% уникальный текст)
Смотрите на уникальность шире.
Ну и кроме того, есть много методов проверки неявных дублей, кроме пошинглового сравнения.
The WishMaster
alankhab: СПС, и всё же, как ПС отслеживает новые статьи на сайе?
Засылает робота, который индексирует страницы по ссылкам или по карте сайта.
D.iK.iJ
Возьмите да проверьте.
Яндекс обычно берет текст из кода страницы. Гугл – неплохо и скрипты обрабатывает. А вот что попадает в индекс – я бы протестировал.
Можно довольно просто это проверить. Заменить все похожие буквы на английские и при выводе менять на сайте все обратно. Ну или использовать спецсимволы.
Но что-то я не думаю, что такая “уникальная” бурда будет нормально участвовать в поиске.
Anamnado
alankhab: Помогите новичку!
новичок и сразу о воровстве-халявке думать…
ТС – читайте про дорвеи там ваш успех..
———- Добавлено 27.04.2020 в 18:40 ———-
alankhab: где точно поисковики берут информацию,
самое точно место:
загрузить в браузер и посмотреть код страницы
skapunker
ТС лучше вообще никогда сайты не делай
xereden
Проще копипаст продвинуть чем такой фигнёй страдать. И безопаснее уж точно. Яндекс точно фильтрует подобные вещи с обманом юзера или бота. Даже если эта бурда попадёт в выдачу и встанет в топ, вполне может владелец статьи её увидеть и наныть в сапорт на визит к вам модера и накажут вас не за копипаст, а за обман и даже не скажут об этом 🙂 Сиди потом думай что пошло не так.
Виталий Манн
Чувствую, скоро еще один гс “выйдет в свет”….:D
athe
Тестировал в 2017 году подобное.
Была функция на PHP, которая тупо заменяла символы с русских на английские.
Далее делал 2 копии. Одна копипаст, вторая обработанная.
Далее пытался яндекс ботам подсовывать обработанную, остальным копипаст. Чтобы, если че, платонов дураками выставить)
Результат – Фильтр малополезный контент в яшке либо несколько проиндексированных страниц.
10-50 страниц индекса в гугле. На таких “сайтах” было по 5-8К страниц. Были нулевики 5 штук и дропы 5 штук.
alankhab
Здравствуйте! Помогите новичку!
Многие сайты разрешают перепечатку своих статей, но такое не очень одобряется поисковиками из-за не уникальности подобного материала.
Идея, скриптом заполнить пробелы ками нибудь символами, чтоб текст получился 100% уникальным, а при выводе на экран скрипт, убирая всё лишнее, сгенерирует нормальный текст.
Вопрос: где точно поисковики берут информацию, с исходников на сервере или анализирует конечную информацию, которая будет вводиться на экран?
SILL
Здравствуйте! Помогите новичку!
Многие сайты разрешают перепечатку своих статей, но такое не очень одобряется поисковиками из-за не уникальности подобного материала.
Идея, скриптом заполнить пробелы ками нибудь символами, чтоб текст получился 100% уникальным, а при выводе на экран скрипт, убирая всё лишнее, сгенерирует нормальный текст.
Вопрос: где точно поисковики берут информацию, с исходников на сервере или анализирует конечную информацию, которая будет вводиться на экран?
Клоакинг давно придуман)
И ПС это понравится не больше чем копипаст)
Закажите лучше дешевый рерайт
alankhab
Клоакинг давно придуман)
И ПС это понравится не больше чем копипаст)
Закажите лучше дешевый рерайт
СПС, и всё же, как ПС отслеживает новые статьи на сайе?
SmileP
чтоб текст получился 100% уникальным
Такхого пипадет под илтрацию.
Вот 100% уникальный текст)
Смотрите на уникальность шире.
Ну и кроме того, есть много методов проверки неявных дублей, кроме пошинглового сравнения.
The WishMaster
СПС, и всё же, как ПС отслеживает новые статьи на сайе?
Засылает робота, который индексирует страницы по ссылкам или по карте сайта.
D.iK.iJ
Возьмите да проверьте.
Яндекс обычно берет текст из кода страницы. Гугл – неплохо и скрипты обрабатывает. А вот что попадает в индекс – я бы протестировал.
Можно довольно просто это проверить. Заменить все похожие буквы на английские и при выводе менять на сайте все обратно. Ну или использовать спецсимволы.
Но что-то я не думаю, что такая “уникальная” бурда будет нормально участвовать в поиске.
Anamnado
Помогите новичку!
новичок и сразу о воровстве-халявке думать…
ТС – читайте про дорвеи там ваш успех..
———- Добавлено 27.04.2020 в 18:40 ———-
где точно поисковики берут информацию,
самое точно место:
загрузить в браузер и посмотреть код страницы
skapunker
ТС лучше вообще никогда сайты не делай
xereden
Проще копипаст продвинуть чем такой фигнёй страдать. И безопаснее уж точно. Яндекс точно фильтрует подобные вещи с обманом юзера или бота. Даже если эта бурда попадёт в выдачу и встанет в топ, вполне может владелец статьи её увидеть и наныть в сапорт на визит к вам модера и накажут вас не за копипаст, а за обман и даже не скажут об этом 🙂 Сиди потом думай что пошло не так.
Виталий Манн
Чувствую, скоро еще один гс “выйдет в свет”….:D
athe
Тестировал в 2017 году подобное.
Была функция на PHP, которая тупо заменяла символы с русских на английские.
Далее делал 2 копии. Одна копипаст, вторая обработанная.
Далее пытался яндекс ботам подсовывать обработанную, остальным копипаст. Чтобы, если че, платонов дураками выставить)
Результат – Фильтр малополезный контент в яшке либо несколько проиндексированных страниц.
10-50 страниц индекса в гугле. На таких “сайтах” было по 5-8К страниц. Были нулевики 5 штук и дропы 5 штук.
Попробуйте, может у меня не прокатило.