Представители Google объяснили, почему сначала добавили, а потом удалили из Руководства для веб-мастеров пункт, призывающий не закрывать от индексации страницы платных рекламных объявлений.


На прошлой неделе представители Google добавили в Руководство для веб-мастеров новый пункт, призывающий «не блокировать URL страниц платных объявлений Google Ads» при помощи файла robot.txt. Спустя сутки, сотрудники Google убрали это указание и вернули предыдущую версию Руководства.


Удалённый впоследствии пункт Руководства дословно гласил: «Убедитесь, что robot.txt не блокирует URL страниц объявлений Google Ads. Блокировка может вывести сервис из строя или помешать его работе».


Редакция Search Engine Land попросила команду Google ответить на вопрос, почему представители поиска сначала внесли изменение в Руководство, а позднее – убрали его.


Представители компании извинились за это недоразумение и ответили, что Руководство было изменено в связи с тем, что рекламным системам (причём, не только принадлежащим Google) зачастую необходимо сканировать целевую страницу. Однако затем представители компании все же решили не добавлять этот пункт в Руководство для разработчиков. Среди причин такого решения сотрудники Google назвали необходимость сохранения независимости результатов поиска от рекламы.


В действующем руководстве уже существует пункт, который гласит следующее: «Постарайтесь приложить достаточно усилий, чтобы реклама не влияла на ранжирование поиска. К примеру, рекламные ссылки Google AdSense и DoubleClick блокируются от сканирования краулерами в файле robots.txt». Таким образом, новый пункт правил вступал в противоречие с уже существующим.


Стоит отметить, что для оценки качества страницы Google, действительно, нужно сканировать сайт, однако, в качестве отдельного пункта правил это указание может внести больше сумятицы, чем прояснить тактику работы веб-мастера.




Обсудить  

Читайте также


Комментарии Кто голосовал Похожие новости

Комментарии