Как Google следит за качеством выдачи и чего ждать оптимизаторам

Принцип работы алгоритмов поисковых систем держится в строжайшей тайне, и на то есть свои причины. Если оптимизаторы узнают, какие факторы имеют наивысший коэффициент влияния, то их внимание вновь переключится на накрутку этих факторов, а не на работу над качеством контента. В то же время есть масса аспектов работы поисковика, которыми нельзя манипулировать извне, но полезно знать каждому SEO-оптимизатору.

Глава подразделения Google по борьбе с веб-спамом Мэтт Катс регулярно освещает интересные вопросы от вебмастеров всего мира в собственных видеоподкастах. Он часто анонсирует грядущие изменения алгоритмов поисковика и дает ценные советы по оптимизации сайтов. На минувшей неделе Катс опубликовал сразу два выпуска, посвященных механизмам работы Google.





Определение качества выдачи после внесения изменений в алгоритмы

Нулевым этапом тестирования являются исследования выдачи самими разработчиками. Это крайне ограниченный список запросов и оценка, что называется, "на глаз". Если качество выдачи не пострадало - хорошо, улучшилось - еще лучше. Для того, чтобы убедиться в корректности своих выводов, разработчики передают своё творение следующим защитникам релевантности.

Первая линия обороны Google - асессоры, работающие с тестовыми версиями алгоритмов вручную. Никакие боты не смогут отличить полезный контент от набитого ключевиками дорвея, и поэтому компания содержит широкий штат тестеров. Каждый участник этой группы оценивает сайты, оказавшиеся в выдаче по конкретному запросу. Использование тысяч людей позволяет снизить влияние личных мотивов до минимума - выборка достоверна и дает четкую картину того, насколько удачной оказалась выдача.

Оценки асессоров сопоставляют с тем, как выглядела выдача раньше. Это могут быть оценки от других тестеров или даже прямое сравнение с выдачей, полученной на старых алгоритмах. Если новые результаты превосходят прежние или хотя бы немного отличаются в лучшую сторону, то шансы обновления на "выживание" становятся крайне велики.

Последний этап проверки - сами пользователи. Алгоритм устанавливается на ограниченное число серверов, и все клиенты, обращающиеся к ним, становятся тестерами, сами того не подозревая. Google же отслеживает кликабельность сайтов в выдаче и сравнивает её с прежними результатами, используя действующие сервера в роли контрольных.

Как признает сам Катс, нередко возникают проблемы со спам-сайтами - пользователи очень любят кликать на них, хотя те и не дают нужной информации. Для выявления подобных проблем вновь приходится обращаться к специалистам самой компании, которые представляют финальную линию обороны. До них дело доходит не так часто, если алгоритмы хороши и справляются со своей задачей, поэтому этот этап можно назвать можно назвать "бонусным".

Итак, что дает эта информация оптимизатору? Сайт должен быть информативным и продуманным в плане дизайна. Асессор, зашедший на страницу и потерявшийся на ней, никогда не поставит положительную оценку сайту. Информация, за которой приходят пользователи, должна быть легкодоступна, иначе вновь падает релевантность и шанс того, что такая выдача пойдет на "боевые" сервера. В конце концов, если вашим сайтом заинтересуются асессоры, это значит, что он находится в числе первых. Стоит ли рисковать такими позициями, оптимизируя страницы под роботов, но не под людей? К тому же, как уже сказал Катс, спам-ресурсы все равно будут выявлены - попасть на первую страницу дорвей не сможет.

Авторитетность и популярность - разные понятия

Авторитетность сайтов становится все более востребованной в последние месяцы. Google открыто заявляет, что будет поддерживать сайты с репутацией, независимо от их популярности. Отсюда первое следствие - накрутка поведенческих факторов будет иметь минимальный эффект. Поисковик будет оценивать содержимое ресурса и только потом - количество пользователей. Если нет первого, то пользы от сотен тысяч посетителей не появится.

Мэтт заявил, что популярные, но глупые или бестолковые сайты не смогут отвоевать первые строчки выдачи у лидеров мнений при прочих равных. Так, например, сайты взрослой тематики, несмотря на высочайшую посещаемость, не обгонят правительственные сайты, которые пользуются минимальной популярностью в массах.

В ближайшем будущем можно ожидать новых алгоритмов, которые будут определять авторитетность сайта по тематикам, указанным в ключевых словах. Это хорошая новость для пользователей - количество мусорных сайтов в выдаче заметно снизится. Однако для вебмастеров это новая головная боль - придется запасаться не только ботами, но и оригинальным контентом, который сможет придать сайту авторитетности.

Google взял новый курс на борьбу с "черной" оптимизацией, снизив влияние популярности до минимума. Сюда вошли и социальные сигналы - продвижение при помощи "лайков" даже сейчас едва ли имеет эффект. Что следует предпринять SEO-специалисту?

  • заняться контент-маркетингом, чтобы стать авторитетом в своей области;
  • найти качественных авторов для сайт;
  • создавать тематические статьи высшего класса;
  • использовать качественный дизайн для свободного перемещения по материалам;
  • продвигать контент посредством нескольких каналов.

Заметьте, что речь идет не о создании ссылочного профиля, а о целевом распространении ссылок на материалы заинтересованной аудитории.

Скоро продвижение в Google превратится в настоящую схватку авторитетных сайтов, борющихся друг с другом при помощи SEO-специалистов. Пользователи однозначно останутся в выигрыше, а оптимизаторы вновь окажутся поглощены внутриклассовой борьбой, где выживают и зарабатывают только сильнейшие. 

Версия для печати

Вернуться ко всем статьям

  • Главная
  •  / 
  • Статьи
  •  / 
  • Как Google следит за качеством выдачи и чего ждать оптимизаторам
Заказ обратного звонка
Есть, что сказать?
Подписаться на рассылку