Новая Эра в поисковой оптимизации


Мои домыслы, на счёт влияния встроенных в браузер тулбарных показателей поисковых роботов, с помощью наблюдении одного весьма авторитетного чёрного SEO вебмастера (ник на umaxforum Anatol22) подтвердились,  как мне кажется практически на 100% !

Статейка на его персональном блоге, подтверждающие сей факт называется Траф на трамплинах и позиции в выдаче.

Я вообще давненько стал замечать — как только более менее траф на дор пошел — через довольно быстрый отрезок времени — дору хана. И чем больше трафа — тем быстрее хана 🙂  (видимо просекаются такие параметры как кол-во переходов на ресурсе, время пребывания и подобные) — ранее многие SEO-шники списывали этот эффект на стук — но это не совсем так 🙂 Это не стук в прямом понимании этого слова — это результат работы поисковых шпионов, которые без всяких предупреждений о шпионаже поисковики так и норовят воткнуть всем и каждому. И у Вас наверное тоже уже стоит 🙂

В общем можно уже смело заявить, что наступает эра влияния качества и количества трафика на конкретном портале на результаты поиской выдачи (SERP) с учаснием кеев данного ресурса — качественно новый виток развития SE — видимо третий и возможно последний.

Первый я считаю — ранжирование на основе внутренней оптимизации (title, descriptions, keywords, h1, strong …)

Второй — добавляется и играет практически главенствующую роль — ссылочное ранжирование.

Ну и собственно третий — добавляется анализ качества трафика.

Причем  на результатах исследования Анатолия заметим, что траффик влияет не только на выдачу по данному сайту, а этот полученный таким образом траст напрямую перетекает по ссылкам, оказывая влияние уже на ранжирование сайтов получающих ссылочный вес.

Вот такие выводы 🙂

Будут возражения/соображения ?

P.S.

Надо бы подумать над возможностью имитации тулбарного трафа 😉

<Хвостовой, или просто Реклама>

Сложный технический перевод, агентство перевода документов.


15 комментариев на «“Новая Эра в поисковой оптимизации”»

  1. Специально для этого гугл уже давно ввел параметр bouncy rate, оценивающий качество перехода. То бишь пользователь набрал в поиске «молоко», и зашел на первый сайт в выдаче. Сайт ему не понравился и юзверь зашел на второй. На этом поиск закончился.
    Гугл оценивает время между переходами пользователя по выдаче. Если оно мало, то первый сайт упадет в выдаче. Аналогично сейчас поступает яндекс.

  2. Так это хорошо для белых ресурсов, может наконец то при поиске будут выдаваться именно качественные ресурсы.

  3. Извени что немного не в тему вопрос: Дает ли что-то выделение ключевых слов жирным шрифтом? Ато Devaka говорит что нету смысла =)

  4. SEOMR said: Так это хорошо для белых ресурсов, может наконец то при поиске будут выдаваться именно качественные ресурсы.
    Пока что, к сожалению, не всегда выдаются качественные ресурсы. Но, безусловно, наблюдаются приятные тенденции! Возможно, в скором времени, после некоторой доработки…

  5. А как распознать шпиона у себя? Выводы радуют, но действительно, не всегда по запросу выходят белые ресурсы.

  6. keywords уже давно не учитывается, а если учитывается, то незначительно…. уже давненько их влияние убрали из-за ерунды что там была =/

  7. Вот и я давно чувствую, что выдача делается, в том числе, и на поведении юзеров. Теперь почти уверен.

  8. Интересные выводы. Вообще, анализ поведения трафика на сайтах — это вещь, находящаяся на грани законности, я считаю. Если сетевая общественность этим как следует озаботится, и начнет возмущаться, то будет несложно вывести шпионские инструменты из броузеров.

  9. А мне кажется шпион не в браузерах, может какой нибуть-мини гуглик или мини яндексик на каждом сайте сидит как счетчик и палит качество трафа.

  10. Влад, выделять ключевики нужно обычным не жирным [b], а [strong]’ом, это дает пользу.
    Также наравне со стронгом стоит использовать [em] (курсив).

  11. Почему-то мне кажется что это приведет к появлению софта имитирующего «правильные посещения» в промышленных масштабах. Очередной виток борьбы так сказать, в который вовлечены поисковики, дорвейщики и сеошники.
    А ведь многие интересные маленькие проекты которые в SEO ничего не делают, имеют все меньше и меньше шансов. И это печально отражается на качестве выдачи.

  12. В новой логике определния позиции в выдаче (с учетом качественного трафика) имеется следующий недостаток. Представим ситуацию. Сайт выбился в топ. Соответстенно на него идет больше переходов. Трафик то у него уже определен поисковиком как качественный. Вопрос: как этот сайт можно подвинуть конкуренту, который только начинает процесс оптимизации? Если его сайт находится в выдаче на второй или третьей странице, у него нет щансов получить переходы с поисковика — до него пользователи просто не дойдут, даже если контент у него более интересный, чем у лидеров выдачи. А вся «малина» будет доставатся тем, кто в топе. И их ведущие позиции продолжат укрепляться.
    Вывод: алгоритму поиковика необходимо периодический сбрасывать те показатели сайтов, которые используются для ранжироания выдачи.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *