Google нанёс очередной удар по низкокачественному контенту, обновив алгоритм Panda. Апдейт под номером 4.1 начался ещё в первые дни прошлой недели, однако официальное заявление было сделано представителем компании Пьером Фаром (Pierre Far) лишь 26 сентября. По ожиданиям отдела Google Великобритания, закончиться обновление алгоритма должно уже на этой неделе.
Что же касается размеров охвата Panda 4.1, то данный апдейт должен затронуть 3—5% поисковых запросов.
По словам Пьера Фара, добавить новые сигналы определения низкокачественного контента поисковику помогла обратная связь с пользователями и вебмастерами. Повышение точности работы алгоритма должно привести к улучшению позиций в выдаче высококачественных сайтов малых и средних размеров.
Стоит отметить, что предыдущий апдейт Panda 4.0, запущенный 20 мая 2014 г., также был направлен на улучшение видимости небольших веб-ресурсов, принадлежащих предприятиям малого бизнеса.
По информации WebProNews, Google целенаправленно разрабатывает способы содействия мелким компаниям в продвижении их ресурсов в поисковой выдаче. Хотя реакция на появление в топ-10 множества небольших сайтов весьма неоднородна, большинство пользователей считает, что оно положительно сказывается на качестве выдачи.
Реакция профессионального сообщества вебмастеров
По традиции, услышав о 27-ом по счёту обновлении алгоритма Panda, кто-то из оптимизаторов обрадовался, надеясь, что внесённые с момента последнего апдейта изменения позволят сайту выйти из-под фильтра и значительно улучшить свои позиции в выдаче. Другие, наоборот, расстроились, боясь наложения санкций за псевдооптимизацию текстов и резкой потери трафика к концу текущей недели.
Основатель издания Search Engine Journal Лорен Бейкер (Loren Baker) успел провести экспертный анализ апдейта Panda 4.1. И вот какими заключениями он поделился:
«Последнее обновление алгоритма свидетельствует о том, что эффективность сканирования сайта наряду с прямым и чётким сообщением Google необходимых ему данных сегодня важны как никогда раньше.
Уделяйте повышенное внимание XML картам сайтов, вырезайте из них ссылки на слабый контент и убедитесь в том, что предоставляете Google всю необходимую информацию и ничем не затрудняете доступ к ней для роботов поисковой машины. Более того, удостоверьтесь, что даже в XML картах сайтов правильно определён приоритет сканирования и старый контент не подвергается повторным обходам роботов без особых на то причин».
Панда обновляется всё реже
Информационный ресурс Search Engine Land ведущий хронику обновлений алгоритмов Google, отмечает, что в последние 2 года апдейты Panda стали случаться гораздо реже. Если в 2011 г. текстовый антиспам-алгоритм обновлялся 9 раз, в 2012 г. целых 14 раз, то в 2013 г. всего 2 раза и в 2014 г. пока тоже 2 раза.
Однако нерегулярность апдейтов Панды мало кто замечает в свете тех событий, что ссылочный антиспам-алгоритм Пигвин не обновлялся уже почти год (с 4 октября 2013 г.).
Комментарии