Мои домыслы, на счёт влияния встроенных в браузер тулбарных показателей поисковых роботов, с помощью наблюдении одного весьма авторитетного чёрного SEO вебмастера (ник на umaxforum Anatol22) подтвердились, как мне кажется практически на 100% !
Статейка на его персональном блоге, подтверждающие сей факт называется Траф на трамплинах и позиции в выдаче.
Я вообще давненько стал замечать — как только более менее траф на дор пошел — через довольно быстрый отрезок времени — дору хана. И чем больше трафа — тем быстрее хана 🙂 (видимо просекаются такие параметры как кол-во переходов на ресурсе, время пребывания и подобные) — ранее многие SEO-шники списывали этот эффект на стук — но это не совсем так 🙂 Это не стук в прямом понимании этого слова — это результат работы поисковых шпионов, которые без всяких предупреждений о шпионаже поисковики так и норовят воткнуть всем и каждому. И у Вас наверное тоже уже стоит 🙂
В общем можно уже смело заявить, что наступает эра влияния качества и количества трафика на конкретном портале на результаты поиской выдачи (SERP) с учаснием кеев данного ресурса — качественно новый виток развития SE — видимо третий и возможно последний.
Первый я считаю — ранжирование на основе внутренней оптимизации (title, descriptions, keywords, h1, strong …)
Второй — добавляется и играет практически главенствующую роль — ссылочное ранжирование.
Ну и собственно третий — добавляется анализ качества трафика.
Причем на результатах исследования Анатолия заметим, что траффик влияет не только на выдачу по данному сайту, а этот полученный таким образом траст напрямую перетекает по ссылкам, оказывая влияние уже на ранжирование сайтов получающих ссылочный вес.
Вот такие выводы 🙂
Будут возражения/соображения ?
P.S.
Надо бы подумать над возможностью имитации тулбарного трафа 😉
<Хвостовой, или просто Реклама>
Сложный технический перевод, агентство перевода документов.
15 комментариев на «“Новая Эра в поисковой оптимизации”»
Специально для этого гугл уже давно ввел параметр bouncy rate, оценивающий качество перехода. То бишь пользователь набрал в поиске «молоко», и зашел на первый сайт в выдаче. Сайт ему не понравился и юзверь зашел на второй. На этом поиск закончился.
Гугл оценивает время между переходами пользователя по выдаче. Если оно мало, то первый сайт упадет в выдаче. Аналогично сейчас поступает яндекс.
Выводвы порадовали, спасибо
Так это хорошо для белых ресурсов, может наконец то при поиске будут выдаваться именно качественные ресурсы.
Извени что немного не в тему вопрос: Дает ли что-то выделение ключевых слов жирным шрифтом? Ато Devaka говорит что нету смысла =)
SEOMR said: Так это хорошо для белых ресурсов, может наконец то при поиске будут выдаваться именно качественные ресурсы.
Пока что, к сожалению, не всегда выдаются качественные ресурсы. Но, безусловно, наблюдаются приятные тенденции! Возможно, в скором времени, после некоторой доработки…
А как распознать шпиона у себя? Выводы радуют, но действительно, не всегда по запросу выходят белые ресурсы.
keywords уже давно не учитывается, а если учитывается, то незначительно…. уже давненько их влияние убрали из-за ерунды что там была =/
Вот и я давно чувствую, что выдача делается, в том числе, и на поведении юзеров. Теперь почти уверен.
Интересные выводы. Вообще, анализ поведения трафика на сайтах — это вещь, находящаяся на грани законности, я считаю. Если сетевая общественность этим как следует озаботится, и начнет возмущаться, то будет несложно вывести шпионские инструменты из броузеров.
А мне кажется шпион не в браузерах, может какой нибуть-мини гуглик или мини яндексик на каждом сайте сидит как счетчик и палит качество трафа.
Хочу заниматься дорами. Данная инфа пойдет в мою «библиотеку». Пока коплю знания )))
Влад, выделять ключевики нужно обычным не жирным [b], а [strong]’ом, это дает пользу.
Также наравне со стронгом стоит использовать [em] (курсив).
Почему-то мне кажется что это приведет к появлению софта имитирующего «правильные посещения» в промышленных масштабах. Очередной виток борьбы так сказать, в который вовлечены поисковики, дорвейщики и сеошники.
А ведь многие интересные маленькие проекты которые в SEO ничего не делают, имеют все меньше и меньше шансов. И это печально отражается на качестве выдачи.
В новой логике определния позиции в выдаче (с учетом качественного трафика) имеется следующий недостаток. Представим ситуацию. Сайт выбился в топ. Соответстенно на него идет больше переходов. Трафик то у него уже определен поисковиком как качественный. Вопрос: как этот сайт можно подвинуть конкуренту, который только начинает процесс оптимизации? Если его сайт находится в выдаче на второй или третьей странице, у него нет щансов получить переходы с поисковика — до него пользователи просто не дойдут, даже если контент у него более интересный, чем у лидеров выдачи. А вся «малина» будет доставатся тем, кто в топе. И их ведущие позиции продолжат укрепляться.
Вывод: алгоритму поиковика необходимо периодический сбрасывать те показатели сайтов, которые используются для ранжироания выдачи.
Самое обсуждаемое на блогах:
День Петра и Павла
День рыбака
Погиб Артуро Гатти