Google больше не рекомендует вебмастерам и разработчикам придерживаться правил, изложенных в руководстве по сканированию AJAX.
Руководство было призвано сделать AJAX-страницы видимыми для поисковых роботов. На тот момент системы Google не могли распознавать и отображать страницы, использующие JavaScript. Поскольку краулеры не могли видеть динамический контент, Google предложил вебмастерам набор практик, призванных обеспечить сканирование AJAX-приложений поисковыми роботами.
Теперь эта ситуация изменилась. В настоящее время Googlebot может видеть и распознавать такие страницы. Чтобы отобразить эти изменения, компания обновила Рекомендации для вебмастеров. Теперь, чтобы Googlebot правильно распознавал содержание сайта, вебмастерам рекомендуется открыть ему доступ ко всем ресурсам, включая файлы CSS и JavaScript.
«Система индексирования Google обрабатывает HTML-код веб-страницы и все её элементы, такие как изображения, файлы CSS и JavaScript», — говорится в обновлённом документе.
Напомним, что в марте этого года аналитик и инженер отдела качества поиска Google Гэри Илш (Gary Illyes) сообщил, что, поскольку Google с мая 2014 года способен обрабатывать всё содержимое страницы, система может отозвать рекомендации по сканированию AJAX, предлагаемые центром разработчиков Google.
В конце апреля Гэри Илш заявил, что компания всё ещё работает над созданием новых рекомендаций по сканированию AJAX. Целью Google является прекращение сканирования фрагментов _escaped_fragment_ AJAX, а не сайтов на AJAX, как это произошло с Flash-технологией.
А в августе специалист отдела качества поиска Google Джон Мюллер (John Mueller) заявил, что поисковик всё ещё сканирует страницы, использующие AJAX.
Комментарии