Во время последней видеовстречи для вебмастеров сотрудник Google Джон Мюллер заявил, что в некоторых случаях отклонение или удаление плохих ссылок на сайт может помочь поисковому алгоритму больше доверять другим ссылкам, указывающим на этот ресурс.
Вопрос на эту тему задала известный западный SEO-консультант Мари Хэйнс (Marie Haynes). Она спросила:
«Возможна ли ситуация, в которой ссылки могут навредить сайту алгоритмически – даже, если ручные санкции отсутствуют? Нам кажется, что мы заметили улучшения по некоторым сайтам после отклонения ссылок».
Мюллер ответил так:
«Это, безусловно, может иметь место. Когда алгоритм видят кучу действительно плохих ссылок, то в будущем он может быть немного более осторожными в отношении ссылок с этого сайта в целом. Поэтому, если вы удалите эти ссылки, то алгоритм увидит это и “подумает”, что всё не так плохо».
Далее Хэйнс добавила:
«Меня беспокоит, что люди тратят кучу денег на ссылочные аудиты, которые, как я думаю, того не стоят. С другой стороны, мы можем упускать возможности, не проводя аудит и не отклоняя ссылки, тогда как некоторые сайты могут получить от этого пользу. Ваш ответ очень помог».
В ответ Мюллер отметил, что для большинства сайтов это всё же не нужно, поэтому инструмент отклонения ссылок не является основной функцией в Search Console. Однако, если вебмастера беспокоят конкретные некачественные ссылки, то он вполне может их отклонить ради своего спокойствия.
«Я бы специально не занимался поиском таких ссылок, но если вы знаете о них и они вас действительно беспокоят, тогда вы можете позаботиться об этом», — заключил он.
Комментарии