Google сделал индексацию более эффективной

Google провел масштабное обновление индексирующих роботов, и теперь поисковик будет видеть страницы точно так же, как и пользователи, с учетом всех примененных CSS и Javascript-сценариев. Вебмастеры, которые ранее блокировали доступ к этим служебным файлам роботам, должны будут снять ограничение. В противном случае сайт рискует потерять позиции в выдаче из-за некорректного, на взгляд робота, размещения контента.

Фактически, Google "пересадил" свои алгоритмы на современные браузеры с поддержкой всех средств выразительности, доступных вебмастеру. Ранее роботов интересовал только текст странички, а сценарии его модификации эмулировались. Поисковик не гарантирует, что обновленные краулеры смогут корректно обработать все виды контента и технологии его отображения, но стремится к этому.

Не забыл поисковик и про пользователей Webmaster Tools. Опция "Просмотреть как Googlebot" в разделе "Сканирование" позволит увидеть страницу глазами робота с учетом последних изменений. Так вебмастер сможет проверить, корректно ли проведено разблокирование вспомогательных файлов, сравнив результат робота с тем, что видит на сайте сам.

"Очеловечивание" поисковых краулеров Google готовил еще с середины этого года. В наши дни вычислительные мощности вовсе не проблема, и не исключено, что поисковик прорабатывает идеи новых алгоритмов, способных заниматься оценкой дизайна и удобства сайта. Google хочет сделать своих пользователей счастливыми и постоянно напоминает вебмастерам о важности грамотного оформления - а теперь сможет и сам оценить старания последних. Подобная информация будет крайне важна для ранжирования.

Google предупредил о возможных проблемах, которые могут возникнуть у новых краулеров, на вебсайтах, и посоветовал вебмастерам устранить их как можно скорее. Речь идет о:

  • блокировании файлов CSS и Javascript средствами robots.txt;
  • слабой выносливости сервера, не способного выдержать натиск краулеров, постоянно запрашивающих странички и их компоненты;
  • слишком "крутых" Javascript-сценариях, существенно меняющих страницу - робот может не выполнить скрипт, если посчитает его слишком большим;
  • автоматическом удалении контента со страницы посредством Javascript - его поисковик не проиндексирует.

Вебмастеры уже знакомы с Panda и Penguin, и наверняка слышали о Hummingbird и Pigeon. Кто же пополнит зоопарк Google в этот раз?

Версия для печати

Вернуться ко всем статьям

Заказ обратного звонка
Есть, что сказать?
Подписаться на рассылку