Форумный дайджест (11-17 января 2016)

Январь 19th, 2016

search and reading online

Подборка интересных вопросов и обсуждений на SEO-форумах:

Какие основные факторы ранжирования Яндекс и Гугл?
Какие основные факторы ранжирования в поисковиках Яндекс и Гугл?

Агрегаторы сайтов - новое бедствие
Очень сильно начали напрягать агрегаторы сайтов (каталоги компаний на поддоменах), в частности тиу, буквально за полгода-год заполнили топ, практически, по всем запросам.
Интересно, планируют ли как-нибудь бороться с этим поисковики, пока складывается впечатление, что они это только поощряют.
Возможно ошибаюсь, но все это заслуга того, что все сайты являются поддоменом домена тиу, у которого суммарно набирается не хилый вес, который учитывается при распределении позиций.
Статистика говорит сама за себя, я следил за некоторыми сайтами, так прирост за полгода-год составил 200-300%. Это замечено у старых сайтов, которых раньше даже не видел.

Бонус в ранжировании Google с HTTPS
Google: сайты на HTTPS получат преимущество в ранжировании даже при неверном переходе на безопасный протокол
Замечали ли вы улучшение ранжирование сайтов, которые перешли на https? И что думаете по поводу не полного перехода сайта, есть подразделы, которые из-за своего контента не могут перейти на защищенный протокол. И сайт будет полу http, полу https

Бесплатный SSL сертификат на сайте
Сегодня на свой сайт установил бесплатный SSL сертификат.
Проблема в том что он что-то блокирует на сайте, но я не могу определить что именно.
Помогите пожалуйста определить и исправить проблему :)
И ещё вопрос.
Нужно ли в вебмастере гугл и яндекс добавлять сайт с протоколом https как отдельный сайт или они сами со временем переиндексируются?

HTTPS будь он не ладен. Проясните, как действовать?
Время не стоит на месте решил все же приобщиться к новым технологиям и перевести сайт на SSL, да и оказия подвернулась.
Делал все через cloudflare, благо денег не просит и можно посмотреть что за зверь.
Основной хост был HTTP, папка одна и отдельно делать паки под HTTPS и HTTP делать не планируется.
Зачем все это нужно было?  Любопытство, халява, экмперимент, да и гугл обещал видимость повысить.
В общем-то не понятно как с этим хозяйством справляться в случае защищенного протокола. В cloudflare настроен HSTS, те все строго перебрасывается на защищенную версию сайта.
Яндекс отрапортовал, что проиндексировано в HTTPS версии сайта больше страниц, чем в HTTP. Гугл в вебмастере молчит почему-то, но в индексе появляются страницы.
301 редирект настроить не могу, так как включен HSTS и он уже получается редиректит запросы и в случае 301 редиректа получается redirect loop.  А что происходит при этом с SEO?
Вроде как гугл должен сам разобраться с дублями контента с  защищенного и незащищенного  сайта. Яндекс не понятно.
Гуглил, яндексил - все противоречиво.
Хочу оставить только HTTPS версию сайта и чтобы была индексация только этой версии. Как сделать правильно? Подскажите плз!

Как организовать форум на сайте, чтобы он помогал продвижению?
Возникла идея прикрутить к одному из проектов форум для ответов на вопросы и обсуждения их, а так же другой обратной связи с потенциальными клиентами. Сам проект сделан на вордпрессе, поэтому движок форума будет совместим с ним.. Но как лучше организовать этот форум, чтобы он способствовал продвижению всего проекта? Идея форума возникла из-за того, что обычная подписка на нечто бесплатное - книгу, курс и т.п. работает с каждым днем все менее эффективно - многие понимают, что просто нужен твой электронный адрес, чтобы потом спамить тебя всяко разным. Регистрация на форуме - это более высокий уровень заинтересованности, у меня есть реальный вопрос или я хочу поделиться своими ответами, мнением - то есть это уже как минимум более квалифицированный лид.

Продвижение сайтов на конструкторах (Insaels, Nethouse, Wix)
Есть смысл делать сайт на Insales, Nethouse, Wix и т.п., если нужно будет продвигать проект по Мск и обл, тематика не сильно конкурентная? На сколько движки хороши для продвижения, с учетом, что доступа к коду нет? У кого были подобные успешные/неуспешные опыты?

Влияние структуризации данных по Schema
Недавно наткнулся на разметку Schema.org, которая помогает поисковым системам извлекать и структурировать данные с сайта, и я задался вопросом - а влияет ли это на ранжирование? Как я считаю, ПС будут более лояльны к сайтам с подобной разметкой нежели без неё. В общем, поделитесь своими мыслями по этому поводу.

И еще 9 интересных тем…

Читать далее »


Удалять ссылки с сайтов, которые попали под АГС?

Октябрь 1st, 2015

face-tsПодскажите, нужно ли удалять ссылки с сайтов, которые попали под АГС?

Ситуация такая:
Есть сайт site.in.ua, на него каждый месяц закупаются ссылки по 10-20 штук с бирж (миралинкс и гогетлинкс). РДС бар показал, что примерно 15% площадок попали под фильтр АГС. Что лучше - оставить как есть или снять ссылки?


На заспамленных сайтах желательно убрать и лучше увеличьте количество нормальных ссылок, что бы уменьшить % тех что под АГС…


А яндекс не забанит сайт, если примерно 15% ссылок с сайтов под АГС? Если их снять, тогда гугл просядет… :(


Конечно нужно удалять. Если сайт признан Яндексом как продающий СЕО-ссылки, вам это должно послужить сигналом.


Удалять нужно. Имея опыт работы с сайтами под АГС и их отрицательное или неэффективное влияние на ссылаемые сайты, знаю о чем говорю. Придерживаюсь понятия - только качественные ссылки.


Я бы не стал удалять. На гугл все таки ссылки продолжат оказывать влияние, да и Яндекс сегодня загоняет под АГС, завтра выпускает.


из последнего АГС, повалившего крупняки, у меня вышли все сайты!
яндекс дурит вам голову.
снимая массово ссылки - вы палитесь и попадаете в итоге под Минусинск.
Да, я лицо заинтересованное, ровно как и Яндекс, который хочет загнать вас в директ )


Аналогично, white-лист в Миралинкс - все, что недорого и более-менее качественно БЫЛО - все ушло под АГС.
Ссылки менее 500 рублей за статью - теперь полное фуфло (при на самом деле качественном сайте)…
Пора разбавляться, удалять едва ли стоит. Только если уж совсем заброшенных площадок.


Пожалуй стоит снять, в дальнейшем отбирать хорошие посещаемые площадки и размещать вечные качественные ссылки на них, не гнаться за количеством.


А качественные, это какие, с сайтов, не торгующих ссылками? Так они и вам не продадут. А если продадут в формате, отличном от пресс релиза, то это априори не может быть качественным сайтом, ибо нарушает (манипуляция выдачей).

Любой сайт, продающий ссылки на постоянной основе, рано или поздно превратится в линкопомойку.


За ссылочной массой нужно постоянно следить и заниматься ею. Параллельно удалять и покупать новые качественные ссылки. Тогда и гугл не провалится и Яндекс из АГС выпустит. Но процесс затянется в лучшем случае месяца на 2. А качественные ссылки - это ссыли с трастовых сайтов, через миралинкс их например можно поискать.


Минусинск заработал?!

Июль 1st, 2015

face-tsНу вот, объявили официально: “Алгоритм Минусинск запущен” http://webmaster.ya.ru/replies.xml?item_no=20337


То, что он запущен, не значит, что он работает ;)

Да выкинут из топа десяток другой сайтов, причем вручную, а потом скажут это наш мега алгоритм…

Рассуждая, по логике яндекса - если есть деньги на ссылки - значит есть и на директ.
Если есть деньги только на неск. десятков ссылок - ну и фиг с тобой, сиди на своем месте.
Если есть деньги на сотни, тысячи, десятки тысяч ссылок - улетай вниз или добро пожаловать в директ.

Покупка качественных ссылок - показатель серьезности компании и её намерения быть выше всех (особенно в ВК коммерческих тематиках, где бюджеты на продвижение доходят до полумиллиона в месяц). Поэтому такие компании предлагают лучший сервис. Если убить такие компании, то работать будет просто не кому. Ссылки отменить нельзя - иначе поисковой системой будут пользоваться только её сотрудники :)

Сейчас многие просто снимают ссылки без перезакупа (или перезакупают на небольшую часть снятого бюджета).

Не согласен. Я довольно тщательно просматриваю акцепторов и вижу, что некоторые с одних сайтов снимают, на других закупаются.
Отмечаю факт: не просто снимают ссылки, как Вы утверждаете, а меняют стратегию закупки. То есть рынок перестраивается.

Полагаю, имея такую статистику, могли бы ею поделиться и развеять мое сомнение.

Да, некоторые пользователи приняли решение поменять стратегии размещения ссылок:
а) одни поменяли тексты на безанкорные;
б) другие сняли старые ссылки и заменяют их более свежими;
в) третьи снимают ссылки с загаженных ресурсов с большим тИЦ и большим кол-вом исходящих ссылок;
г) некоторые снимают всё, что было в паблике выложено в виде пересечения плохих доноров (общих для тех, что попали под минусинск в первые волны), таковые сайты к сожалению, еще остаются для продажи;
д) некоторые анализируют оставшихся в живых и пытаются сканировать качественных доноров и переразместиться на этих сайтах;
е) а некоторые применяют все комбинации этих случаев.
Проценты не скажу, не считал… но они не существенные.

1. «Я снял(а) все ссылки и сайт остался на прежних позициях».
Давайте различать отдельные случаи и закономерности.
Чтобы утверждать, что это закономерность, надо:
a. Иметь точный алгоритм ранжирования Яндекса (что маловероятно)
b. Сделать пусть не 100 (это из мат. статистики), но хотя бы 10 сайтов по этой методике в разных темах.
Казалось бы, очевидно, но пара человек повторяют эту мысль как аргумент в пользу снятия ссылок. Это не аргумент – это просто случайность.

2. «Ссылки не работают».
Было куча сообщений в теме, что люди снимали ссылки и их позиции падали и в Яндексе и в Гугле. Давали домены и показывали позиции и графики. То есть факты противостоят лозунгам не всегда успешно только потому, что лозунги появляются очень часто и долбят мозг, а работающие люди пишут по делу и редко.
В такой ситуации призывать снимать ссылки – не правильно. И снимать их – тоже.

3. «Яндекс всё всем покажет»
a. Наказано менее , 0001% сайтов.
b. Санкции наложены вручную, это не алгоритм.
c. Выдача и обновление Яндекса, практически, заморожены.
Последний пункт показывает, что Яндекс облажался и теперь не знает, что ему делать. Более того, после фейлов с «отменой ссылок» в прошлом году – доверие к Яндексу сильно пошатнулось.

4. Самый важный пункт - доверие.
Для меня бизнес- это прежде всего доверие. Мы готовы больше платить за бренды, потому что доверяем их качеству, сервису, поддержке и т.д.
Яндекс сильно потерял моё доверие в этом году.
Притом, что я всегда к нему хорошо относился – сильный отечественный проект, каких мало в мире, удобные сервисы, которыми я постоянно пользуюсь – навигатор, почта, карты, маркет и т.д.
Но. Яндекс поступил не этично, по-совковски.
a. Гугл ввел правила и дал возможность его соблюдать – стал накладывать фильтр за плохие ссылки. Влияние плохих ссылок можно обнулить. В Яндексе это сделать нельзя, притом, что все понимают, что всегда есть куча не управляемых оптимизатором, естественных, но плохих ссылок (кстати, почему-то все считают, что естественные ссылки хорошие и пушистые. Скорее наоборот, оптимизаторы для seo-ссылок пишут статьи и выбирают профильные классные сайты), которыми он управлять не может. И сайт (оптимизатора) всё равно за них наказывают.
То есть Яндекс вводит законы, которые невозможно соблюдать.
b. Яндекс врет. И про отмену ссылочного в прошлом году и про то, что снятие ссылок не приведёт к падению сайта.
c. Заминусинины сайты не по алгоритму, а индивидуально. Это называется нарушает конкуренцию и называется шантажом и самодурство. За такое можно судиться.
d. Яндекс забивает своей рекламой и своими продуктами всю выдачу. Это тоже не этично.
e. Яндекс практически заморозил обновление и выдачу – есть области, где это важно. Это играет и против бизнеса и против оптимизаторов и против интересов клиентов. То есть их игрушки уже начали разрушать их бизнес.

У меня впечатление, что год назад прежнюю команду Яндекса – талантливых умных парней сменила команда «эффективных менеджеров», которым на всех вокруг плевать, которые считают, что пипл вокруг быдло и всё схавает и деньги надо отжимать везде по максимуму.
Ярко видна разница между уровнем бизнеса (и культуры) Гугла и отечественным производителем.

Поэтому я пришёл к выводу, что буду больше ориентироваться на Гугл – пусть у него меньше выхлоп, зато он более предсказуем и стабилен, для меня это важно. И более этичен. OK Гугл - я больше доверяю вам.


Кластеризация запросов семантического ядра для SEO и контекстной рекламы

Февраль 10th, 2015

Коротко о кластеризация запросов семантического ядра для SEO и контекстной рекламы.

Классификация видов запросов

  • Навигационные — направленные на поиск объекта (официального сайта, представительства тп)
  • Информационные — направленные поиск информации
  • Транзакционные — направленные на совершение действия

Классификация запросов по SEO

  • Навигационные/информационные/транзакционные (коммерческие);
  • Сезонные/всесезонные;
  • Геозависимые/геонезависимые;
  • Частотность (ВЧ/СЧ/НЧ/мНЧ);
  • Конкурентность (ВК/СК/НК).

В зависимости от тематики, частотность запросов в пределах:

  1. НЧ 100-700 запросов;
  2. СЧ 1000-5000;
  3. ВЧ выше 5000.

Откуда брать запросы. Составление семантического ядра состоит из:

  1. Начальный список, ВЧ;
  2. Подсказки Директ, Wordstat;
  3. Ищем конкурентов. Сбор семантики конкурентов. Платно: AdvseSemrush, Spywords. Бесплатно: «Видимость сайта» от MegaIndex;
  4. Используем базы;
  5. Ищем открытую статистику;
  6. Выгружаем данные статистики;

Составляем список стоп-слов, которые не несут никакой смысловой нагрузки.

Для отсева не нужного собираем частотность запросов для семантического ядра. Считаем соотношение точных запросов (”!word”) к «грязным» (word).

Запросы группируются по:

  1. Смысловому значению;
  2. Для коммерческих сайтов: раздел, карточка товара, тег.

Под ВЧ продвигается 1 страница.

Правила группировки запросов:

  1. Title — адекватный заголовок;
  2. Текст — описание в рамках плотности;
  3. Смысл текста.

Группировка запросов семантического ядра
При оценке стоимости запросов берутся данные с ссылочных агрегаторов, megaindex.ru и Директа.

Для кластеризации запросов бесплатно можно использовать:
engine.seointellect.ru.
coolakov.ru/tools/razbivka/.
Key Assistant — ручная группировка.
mc-castle.ru/key.
kg.ppc-panel.ru.

Из платных:
SEMparser — Структуризация семантики для SEO и контекста.
Кейса — фильтрует ключевые запросы и быстро группирует их. Имеется возможность внесения дополнительной информации и ускорения работы с длинными списками.
Rush Analytics — обработка поисковых подсказок из вордстата, кластеризация ключей. В результате практически готовая структура веб-сайта.
Keyword Organizer — простой и понятный сервис, позволяющий объединять ключевые запросы в группы, а также создавать контент.
S:toolz — кластеризация ключевых запросов на базе поисковой выдачи. Автоматический подбор семантического ядра.
Just Magic — автоматический подбор ключевых слов для контекста и сео, а также подбор страниц, релевантных запросам.
МегаЛемма — избавление семантического ядра от мусора, формирование групп ключевых запросов, экспортирование результатов.
Key Collector — группировка это только маленькая часть того, что она умеет. Запросы можно сгруппировать по составу фраз, по выдаче поисковиков и в комбинированном режиме. Группировка на основе поиска работает кода собраны данные для KEI.
Семён-Ядрён — формирование семантического ядра сайта на основе поисковых систем.


Как формируются позиции в Яндекс Картах?

Август 18th, 2014

face-tsПодскажите, как формируются позиции в Яндекс-Картах? К примеру, захожу в карты, вбиваю запрос, к примеру пицца или сауна. Первые объявления - яндекс Директ, затем идут фирмы по позициям, как продвинуться по ним выше?


Выше те, кто добавляется за деньги :) Кроме Директа, есть еще платные 1-ые места, они отмечены желтым ярлычком.

Те, кто платит, помечаются желтой блюмбой, да… но таких немного.
Вопрос стоит в ранжировании всего списка.


Совершенно верно, я не про приоритетное размещение. Интересует ранжирование обычного списка этих организаций.


Не претендую на истину, но тоже интересовался этим вопросом. Пробовал, экспериментировал. В каждом отдельном случае, у всех показывает по разному, такое ощущение что генератор случайностей. Удалось вычислить только то, что при добавлении отзывов фирма поднимается наверх. Причем не важно хороший или плохой отзыв, но с положительными отзывами фирмы ранжируются повыше.


Продолжал эксперементировать и обнаружил следующее - список в карте он не постоянный. Допустим наберешь в яндексе - “диагностика двигателя” и один список, наберешь “диагностика двигателей” и список чуть другой. Т.е. может в Картах Яндекса, как и в самом яндексе позиции выстраиваются по релевантности запроса…


Какие инструменты использовать для продвижения в maps.yandex?


В данный момент инструмента два: это добавление положительных отзывов и коммерческое размещение на картах http://sprav.yandex.ru/ - 21600 руб за год!


Мне удалось попасть в ТОП-3 по своему запросу и быть первой на Яндекс.Картах за счет отзывов. Но к сожалению недолго… Когда часть отзывов отвалилась (Яндекс почему-то перестал их отображать), на карте ушла вниз на 5-6 позиции, в выдаче на 7. Тематика: туристические услуги, регион: СПб и Ленобласть.


Мысли после апдейта и заявления Яндекса об отмене ссылочного

Март 18th, 2014

face-tsАпдейт неоднозначный… упали позиции в день отмены ссылочного в коммерческой тематике… Потихоньку буду снимать ссылки с сапы. Видимо яша научился отделять гавно от золота. И толку платить за аренду ссылок? Гугл с биржами борется, яндекс ссылочное отменяет. Реально в чем смысл покупать ссылки если запросы коммерческие? Пойду в Директ. Так на так и выйдет, что ссылки оплачивать, что клики. Зато в директе - на 1 месте буду сразу :) а по ссылкам - на 5-9…

Я свой сайт продвигаю сам уже много лет и видел всякое. Просто то что я видел - подсказывает мне одно. Поисковики заинтересованы в том чтобы постоянно менять алгоритмы, постоянно ротировать сайты с одних позиций на другие. “Повисел в топе - заработал денег - почувствовал как хорошо быть наверху - иди в анус выдачи и плати за контекст” вот вся логика поисковика. И я честно думаю что она оправдана с точки зрения заработка ПС с контекста, т.е. с Директа. Был бы яндекс мой - я бы так и делал. Никому не интересно чтобы сайты постоянно были на одних позициях и тем более на высоких. Так что покупай ссылки, не покупай - толку мало. Все равно рано или поздно алгоритм поменяется - и вся работа будет на смарку. Я знаю нескольких конкурентов которые работают только на контексте (видимость в Орг выдаче - 0.8 процента) и прекрасно себя чувствуют.


Насчет ссылок - это Вы зря отчаиваетесь, никто никогда не отменит хорошие “естественные” ссылки. Просто станет немного больше и сложнее работать… ;)

Неужели никто не понимает, что яндекс уже давно определяет купленные ссылки и постепенно принимает меры против этого направления как манипуляция поисковой выдачи за счет ссылочной массы. Яндекс прекрасно видит когда у сайтов возникает повышенный интерес к контексту. Они знают как на это влиять и делают это успешно. Главная задача поисковика - прибыль. Им нужно чтобы те, кто зарабатывают на поиске отдавали деньги не за аренду ссылок, а за аренду первой строчки в контексте.

А если все 50 оптимизаторов топа начнут думать также и пойдут в директ? Как думаете к чему это приведет? Первых мест на всех не хватит…. ну идите в Директ, дабы поберечь свои нервные клетки, а мы еще поборемся за естественную выдачу :)

Если большинство пойдет в Директ, то приведет к тому - к чему и “ведет” Яндекс.
Не хватит первых мест - изменят ценовую политику (путем ее повышения). Чего и добиваются.
А вообще, в директе дороже и конверт похуже…

Яндекс говорит об отмене учёта ссылок, а не о том что они понижают сайт… так что если всё заявленное правда - то разницы вы не увидите 100%.
П.С. Переведу на русский … если сайт был СДЛ и на него стояло куча ссылок, то с отменой ссылочного он там же и останется… а если сайт был ГС и держался в ТОПе за счет ссылок, то при отмене ссылочного он провалится - так же как и при снятии их.

Главная задача поисковика - прибыль
И значит они должны превратить выдачу в говно?
Маразм крепчал, короче…
Падения у всех не может быть - кол-во упавших и выросших сайтов одинаково. Если у вас падает сайт, у кого-то он растет.


SEO-специалист: как им стать?

Февраль 3rd, 2014

SEO оптимизатор/специалист – одна из наиболее востребованных специальностей в сфере интернет-рекламы. И хотя как отдельная профессия seo специалист существует уже достаточно давно, ни в одном ВУЗе не обучают умениям и навыкам, необходимым для работы.

Получить их можно несколькими способами:

  • Практическим путем. Существует огромное количество сайтов (в первую очередь, блогов), где подробно расписаны все этапы работы seo-оптимизатора над сайтом. А на специализированных форумах можно найти ответ на любой вопрос из этой области. Этот способ наиболее долгий и рискованный, т.к. необходимо время на самостоятельное изучение и проведение экспериментов по продвижению, а также некоторое количество средств для создания и поддержания активности одного или нескольких собственных сайтов.
  • Теоретическим путем. Можно прочитать несколько учебников по seo, посетить мастер-классы известных специалистов – это позволит получить необходимый объем знаний и попытаться применить их на реальном проекте.
  • Теория+Практика. Изучить особенности работы seo-оптимизатора можно на специальных курсах по продвижению, которые проводят многие компании, специализирующиеся в этой области. Кроме теоретических знаний, которыми поделятся seo-специалисты этой компании, обычно есть возможность применить свои знания на собственном реальном проекте. При этом за вашей работой будут следить специалисты, а потому многие ошибки начинающих seo-оптимизаторов будут исключены. Но обучение требует свободного времени и финансовых вложений.

Овладев специальностью seo-специалиста, вы сможете почувствовать все её преимущества:

  • Широкий выбор места работы. Seo-специалист нужен не только компаниям, предлагающим услуги интернет-маркетинга. Многим организациям требуется оптимизатор в свой отдел маркетинга для работы над корпоративными проектами.
  • Высокий доход. С развитием поискового продвижения растет и спрос на услуги профессионалов в этой области, и, следовательно, их оплата. Наряду с представителями таких специальностей как программист, тестировщик, веб-разработчик, дизайнер, seo-оптимизатор имеет достаточно высокий уровень дохода.
  • Перспективы карьерного роста. Работа в качестве оптимизатора может стать только первой ступенькой для карьеры в сфере интернет-маркетинга. К тому же, современные тенденции seo таковы, что только знаний из области поискового продвижения недостаточно – работа над проектами требует более комплексного подхода и, соответственно, дополнительного изучения таких сфер как копирайтинг, HTML, PR, контекстная реклама и многое другое.

Но вместе со всеми преимуществами, seo-специалист сталкивается и с трудностями. К недостатком работы можно отнести:

  • Зависимость от поисковых машин. Смена алгоритма ранжирования может привести к ухудшению позиций продвигаемого сайта. Поэтому если вы думаете, что достаточно один раз провести комплекс работ по оптимизации и останется поддерживать достигнутый результат, то глубоко ошибаетесь – оптимизатор никогда не прекращает свою работу. В любой день может произойти смена алгоритма ранжирования поисковика, и работы над сайтом необходимо будет начинать едва ли не сначала.
  • Отсутствие единых правил работы. Несмотря на такую популярность и распространенность профессии, не существует единого регламента работы оптимизатора. Зато остается место для творческого подхода.
  • Рутинность и выполнение механической работы. Продвижение сайтов, особенно на начальном этапе, будет связано с решением задач технического характера. Поэтому стоит запастись терпением.

Если составлять должностную инструкцию seo-оптимизатора, в неё можно включить следующие обязанности:

  • Аудит, анализ сайта и его видимости для поисковых машин;
  • Анализ конкурентов в поисковой выдаче;
  • Разработка и проведение мероприятий по внутренней и внешней оптимизации ресурса;
  • Поэтапная реализация мероприятий по продвижению сайта;
  • Качественное наращивание ссылочной массы на продвигаемый сайт;
  • Улучшение ресурса с целью привлечения клиентов и увеличения конверсии из посетителей в покупателей;
  • Отслеживание изменений в алгоритмах поисковых машин и адаптация сайта к ним;
  • Предоставление необходимых данных (отчетов), позволяющих составить мнение о результатах продвижения в поисковых системах. К таким данным можно отнести позиции ресурса в поисковых системах по ключевым для него запросам, источники трафика, анализ поведения посетителей на сайте, изменение количества продаж с сайта;
  • Обеспечение соблюдения законодательства в отношении прав о рекламе, авторского права, защиты прав потребителей и пр.

Таким образом, оптимизатор должен не только осуществлять комплекс мероприятий по оптимизации сайта, которые позволят ему занять определенные позиции в поисковой выдаче, но и отвечает за ряд других факторов и вместе с копирайтерами, программистами, маркетологами обеспечивает комплексную раскрутку сайта в интернете. И результатом их совместной работы станет увеличение продаж и другие конверсионные действия с помощью продвигаемого сайта.


Как уникализировать картинки?

Апрель 29th, 2012

Интересуют все способы, без программной подмены..

На данный момент наиболее подходит зеркальное отражение, но не всегда возможно использовать

может у кого есть еще варианты, способы? заранее благодарю.


в фотошопе сохраняйте для web, потом в свойствах картинки укажите свое имя, тему и ссылку на свой сайт, и конечно будет неплохо, если немного повернуть картинку + поставить свой логотип (вотермарк)


Круглые края сделай, яркость и контрастность поменять в фотошопе…


Закругление краев, корректировка яркости и watermark на самом деле не поможет.

Три основных способа уникализации картинок:
1. Поворот изображения в любую сторону не менее 10 градусов
2. Соединение нескольких картинок в одну (коллаж)
3. Замена фона, если есть основной объект на картинке, а фон вторичен


В свое время много времени потратил на изучение этой темы. Изменение в коде самой картинки мало что дает. Я так понял, что яндексу код не важен. Он как-бы делает снимок вашей картинки и анализирует этот снимок на расположение цветовой схемы, делает как бы методом похожим на метод шинглов. Берет яркость определенного пиксела и через n-ный промежуток берет яркость другого пиксела и так далее, но в базу заносит не эти показатели, а соотношение разницы между ними и поэтому если менять общую яркость картинки, то на уникальность это мало повлияет, поскольку разность останется та же.


А еще можно просто самому фотографировать, тогда точно уникальные будут :)


Как я делаю картинки уникальными, только фотошоп:

1 - меняю размер картинки (вес в килобайтах), немного обрезаю края;
2 - меняю разрешение картинки (например была 1000х800, делаю 700х500);
3 - чуть изменяю оттенок на картинке с помощью команды Hue/Saturation;
4 - меняю расширение картинки, например, если картинка была jpeg, то меняю на gif, png или jpg, ну и название файла переименовываю.

Это четыре момента которые работают на 100%, проверено опытом :)

Крайне не эффективный метод. 2 и 4 пункт вообще бесполезные, если конечно разрешение изменяется не в десятки раз. Попробуйте вашим способом сделать уникальным для гугла к примеру ту же “Джаконду” Леонардо Да Винчи, что бы при поиске вашего изображения не было на “Страницах с подходящими изображениями”, не говоря уже про “Похожие изображения”.

А самый действенный способ это: отразить картинки в подходящей плоскости; повернуть на 5-15 градусов; кадрировать. Чаще всего хватает двух вторых пунктов.


Можно ещё добавить водяные знаки (адрес сайта) на картинку.
Вообще есть скрипты которые уникализируют картинки.


С водяными знаками не прокатит, шумы отсекаются.
Фактически бот что делает - он строит по точкам изображение и его потом масштабирует, следовательно знаки и прочее - это так неочем!
Минимум картинку нужно зеркалить и поворачивать. Накладывать фон нет смысла!


Если сервис www.tineye.com показывает, что нет копий, то можно быть уверенным, что картинка будет в поиске яндекса или гугла по запросу уникальной?


Яндекс советует закрыть от индексации меню сайта, это нормально?

Апрель 2nd, 2012

Веду переписку с Яндексом на предмет вывода из под фильтра “Ты последний”. В результате долгих препинаний получил следующий ответ:

Обратите внимание, что некоторые страницы Вашего сайта считаются
полудубликатами и поэтому отсутствуют в результатах поиска.
Могу посоветовать Вам изменить код этих страниц так,
чтобы оставить для индексирования только уникальный, не повторяющийся
контент. Сделать это можно при помощи тегов <noindex></noindex> – поместите в
них те части страницы, которые одинаковы для всех похожих страниц сайта
(например, меню, заголовки и т.п.).

Так что теперь, Яндекс рекомендует прятать меню и заголовки под noindex, иначе рискуешь попасть под фильтр?? ИМХО, какой-то бред…
Кроме того, интересно реально ли noindex помогает при скрытии неоригинального текста?


Дело в том, что если основного контента на страницах немного, а менюшки и всякие там подвалы большие - страницы могут посчитаться нечеткими дубликатами и будут выкинуты из индекса.
Поэтому, всю служебную информацию лучше убирать в NOINDEX.
Яндекс пока не умеет автоматически определять важную информацию на странице, поэтому нужны такие меры.
Фильтр “ты последний” тут не при чем.

Правильно сказано, про нечеткий дубль. Советую Вам прописать тэги.
Может у Вас на странице всего одно предложение для контента, а остальные 100к это меню из 50-100 разделов. Да ещё шапка и подвал для всего сайта одинаковые. Тайтл на всех страницах один. И всякой прочей ерунды полно.

Как по Вашему среди этой каши можно разглядеть Ваш так называемый контент то?