Newmann Bauer прокомментировала учет поведенческих факторов Яндекс и Google

2011-09-16 17:55:33 2600

Поведенческие факторы усложнили жизнь SEO-оптимизаторам.
Весь бизнес в интернете сейчас формируется и функционирует в Яндексе. Так уж принято, что люди, старше 30-40 лет, ищущие товары или услуги в интернете, пользуются Яндексом. А те, кому 20 и меньше - не ищут ни услуги, ни товары. Они-то и сидят в Google. В принципе, трафика в Google много, но только пользователи здесь менее активны. Их интересует информация, а не продажи. Это уже установленный факт. Не знаю, изменится он или нет, но так происходит довольно давно. Поэтому основные SEO-компании пользуются контентом Яндекса. Он хотя и дороже раза в 3-4 в среднем, но гораздо эффективнее, чем Google.

С поведенческими факторами программисты Яндекса начали экспериментировать примерно 2 года назад, но до сих пор каждое изменение в поисковике вызывает пересуды и перебранки среди экспертов. Итак, что же такое поведенческие факторы?

Существует 2 деления:

  • как ведёт себя пользователь при выдачи,
  • и как он ведёт себя непосредственно на сайте.

Пользователь набирает запрос, переходит по выданным ссылкам. В это время Яндекс фиксирует, какое количество времени, юзер провёл на том или ином сайте. Если через секунду человек закрыл сайт, значит, ответа на свой вопрос он там не нашёл. Если сайт не отвечает на вопросы, значит, он будет хуже ранжироваться по поведенческим факторам. Потом пользователь идёт дальше до тех пор, пока не остановит свой выбор на каком-то одном сайте. Здесь также неоднозначный момент, потому что человека могли просто отвлечь от работы, а поисковик будет считать, что этот сайт максимально удовлетворяет его поиску.

Также на сайте необходимо ставить метрики, чтобы отслеживать поведение пользователя онлайн: сколько пользователь просматривает страниц, какие дольше, почему. Допустим, на сайт пришло 100 человек в день, а просмотрело всего 150 страниц. Это косвенно говорит о том, что сайт неинтересный, люди на нём не хотят оставаться долго. Может, там дизайн плохой, может, контент некачественный, но факт остаётся фактом - люди уходят с сайта. Количество просмотренных страниц может отличаться в зависимости от тематики сайта. Например, если это сайт по аренде кранов, то здесь будут просматривать максимум 3 страницы: условия аренды, цены и контакты. А если это интернет-магазин, то человек просмотрит гораздо больше страниц. То есть в зависимости от тематики, количество просмотров может сильно отличаться. По одной теме при продвижении хорошим можно считать в 2 раза больше просмотров, а по другой и в 10 раз недостаточно.

В итоге, очень многие действия пользователей можно отследить уже при поиске: время, выдачу, глубину просмотра, посещение определённых страниц (форма заказа или контакты), пути по сайту, можно отслеживать движение мышкой, если стоит определённый код. Таким образом, работники Яндекса отслеживают огромное количество различных факторов, и потом получают средний параметр, основанный на всех этих показателях. В разных темах он свой. Результаты оценки этих факторов влияют на ранжирование.

А что такое ранжирование и по какому принципу оно происходит? До ноября 2009 года всё было очень просто, всё было линейно, зависимо. Ты продвинул свой сайт, посмотрел результат. Получилось продвинуть – тебе уже понятно, как работает система. Сейчас ввели так называемую самообучающуюся систему. В Яндексе есть люди, которые в ручную оценивают сайты по определённой шкале. Там оценивают контент, уникальность, полезность, дизайн, количество страниц, очень много разных параметров. И в каждой тематике выбирают сайты-лидеры. На их основе, на их уровне качества, учат поисковую систему определять уровень качества у других сайтов. И вот уже 2 года Яндекс развивается в этом направлении, то есть поисковая система, сама на основе внесённых в неё данных, ранжирует сайты.

Есть, условно говоря, белые методы, которые Яндекс пропагандирует давно. Но они очень плохо работали: долго, дорого, но стабильно. И были другие методы – искусственное влияние на выдачу. В основном, все сейчас работают по этому принципу. Мы делаем так, чтобы сайт был релевантным запросу пользователя. Мы этим и занимаемся, по большому счёту. Раньше было довольно просто находить способы продвижения сайтов, поскольку в формуле ранжирования было меньше параметров, меньше взаимосвязей, она очень редко менялась, буквально раз в год. Сейчас она меняется часто, а дальше будет ещё чаще. Надо перестраиваться, искать заново определённые закономерности.

Но SEO-оптимизаторы не отстают и изобретают новые способы влияния на поведенческие факторы. Например, была разработана электронная система, имитирующая поведение пользователя на сайте. То есть происходила накрутка определённых страниц. Но эту систему Яндекс тут же прикрыл и SEO-компании, использовавшие этот метод слетели со всех рейтингов. Но существует ещё один способ изменения уровня ранжирования сайта. Некоторые компании попросту нанимают фрилансеров, школьников, для того, чтобы они просматривали нужные страницы на сайте. Эффект опять же всем известен. Эту уловку отследить практически невозможно. Но если это бывает замечено, то опять же компании, ведущие нечестную игру, автоматически попадают в бан-лист. А теперь вопрос: что мешает сделать то же самое с сайтами ваших конкурентов, чтобы умная машина Яндекс забанила их? И попробуй потом докажи, что ты используешь только белые методы и никакими накрутками не промышляешь. Вот она – очередная недоработка с поведенческими факторами.

Допустим, мы продвигаем сайт с плохим контентом, плохим дизайном и вообще неинтересный. И он у нас попадает в топ. По закону подлости, как только это происходит, работники Яндекса обязательно усложняют формулу, вводят всевозможные фильтры, да ещё сейчас поведенческие факторы приплюсовали. Сайт слетает в один момент, и чтобы его поднять снова, его надо полностью переделать.

Поведенческие факторы – очень непредсказуемая вещь. Иногда сайт кажется ужасным и никто не верит, что его можно продвинуть в топ даже на короткое время. А он благополучно забирается на эту высоту и висит там долго-долго. Причина в том, что есть такие тематики, где все сайты абсолютно безобразные. Медицинские справки, к примеру – там единичные сайты можно назвать нормальными. То есть если во всей тематике сайты некачественные и у них низкие поведенческие факторы, то и твой тоже не будет особо выделяться.

Есть такие примеры, когда на сайт идёт целевой трафик, но звонков, и отдачи, соответственно, никакой. Здесь проблема заключается в качестве сайта – у людей попросту не возникает чувства доверия к некрасивому сайту. В погоне за дешевизной люди часто заказывают сайты у непрофессионалов и получают в итоге сайты, которые не заточены под SEO, и продвигать их просто невозможно. А если сайт сделан нормально, то и трафик у него будет идти нормальный. Нужно думать о качестве сайта заранее.

Сейчас можно только сказать, что введение поведенческих факторов реально усложнило работу оптимизаторам. Яндекс хочет сделать так, чтобы мы продвигали сайты без SEO-прессинга: без проставления покупных ссылок, без написания текстов, напичканных словами из поиска. Проблема только в том, что у нас в стране все очень любят халяву: чтобы дёшево и быстро. Но время меняется и сейчас надо заниматься развитием сайта, качественным его наполнением, а не покупкой ссылок. Если в Яндексе доведут всё до ума и поведенческие факторы будут реально влиять на ранжирование, то это будет идеальная поисковая система, потому что это последнее, что им осталось доработать.

Андрей Баранов, Степан Бураков

Другие материалы блога