14 ноября 2013 года состоялась очередная встреча специалистов Google с вебмастерами, на этот раз посвященная механизму повторной проверки. Ее провели сотрудники команды качества поиска Google Мария Моева и Андрей Липатцев, которые разъяснили на примерах, как именно подаются запросы на повторную проверку, какие ошибки допускают вебмастера, и как сделать так, чтобы запрос был удовлетворен, а сайт, попавший под фильтрующие алгоритмы Google был восстановлен в выдаче.
Встреча была посвящена запросам на повторную проверку, поэтому специалисты Google привели примеры запросов от вебмастеров, которые они видят в своей каждодневной работе.
Агрессивный спам №1 – сетка сайтов, созданных автоматически, на одном шаблоне, не содержащих никакого полезного содержания, полностью подпадающих под определение Агрессивный спам.
Проблема: на сайтах используются такие способы спама, как автоматически генерируемый бессвязный текст, маскировка, контент, заимствованный с других сайтов.
Присланный запрос: Вебмастера прислали сообщение (не соответствующее действительности) о том, что после наложения пессимизирующих санкций, ими были выполнены следующие действия:
На лицо тот факт, что вебмастер не отнесся серьезно к предупреждениям, которые последовали после принятия к сайту мер вручную, ничего не исправил, и, более того, пытается ввести команду по борьбе со спамом в заблуждение, присылая этот шаблонный запрос.
Результат – запрос отклонен.
Положительные моменты, которые демонстрирует этот пример:
Рекомендации:
Содержание запроса должно соответствовать действительности
Google стремится не показывать пользователям автоматически размноженные шаблонные копии
Сайт должен содержать что-то оригинальное, полезное и интересное.
Специалисты Google обратили внимание вебмастеров, чьи сайты были понижены за агрессивный спам, на то, что это сигнал того, что на сайте большие проблемы и избавиться от них нельзя, просто, к примеру, переписав заголовки. Андрей Липатцев подчеркнул, что никакие технические проблемы с сайтом не могут привести к принятию в отношении него ручных мер. К пессимизации за агрессивный спам нужно относиться очень серьезно.
Что же касается этой конкретной, приведенной в пример, сетки сайтов, то специалисты Google посоветовали вебмастеру выбрать из них какое-то количество доменов, с которыми он готов нормально работать, переписать их полностью и сделать их полезными для людей, и лишь затем направлять запрос о повторной проверке. А вот так вот на автомате загонять одну и ту же сетку снова и снова, пытаясь, видимо, взять Google измором, - бесперспективно.
Агрессивный спам №2 – сайты, которые были созданы, или тем или иным образом использованы для злонамеренных действий, например, фишинга или установки вирусов, троянов и другого вредоносного ПО.
К подобным сайтам Google вообще относится очень жестко, даже жестче, чем к автоматически сгенерированным сайтам. Но это не значит, что у вебмастера нет совершенно никакого выхода и возможности изменить ситуацию.
Запрос (было подано 3): «Отредактировал описания сайта, они могут немного не соответствовать другим, но в полном объеме переписал… Удалил все вирусы, прошу вернуть сайт в поиск».
Результат: запрос принят
Положительные моменты:
Рекомендации:
Взлом
Проблема взлома очень актуальна во всем мире. Имеются в виду случаи, когда виноват не сам сайт, а он просто стал жертвой взлома, в результате чего на нем была размещена какая-то другая информация, замаскирована и вебмастеру не видна. Большое количество вебмастеров пишут в Google с просьбой объяснить, почему их сайт помечен, как небезопасный в результатах поиска, хотя они сами никаких следов взлома на своем сайте не видят.
Так, например, случилось с одним сайтом, который получил уведомление о взломе и прислал запрос на повторную проверку, в котором сообщил, что меры были приняты и вирусы с сайта были удалены. Однако, если проверить сайт через поиск при помощи простого оператора – невооруженным взглядом видно, что на сайте есть еще куча страниц, где полно этого всего мусора:
Мария Моева предупредила, что мало просто убрать тот вирус, который был на сайте, надо также почистить весь спам, который остался, и разобраться со всеми уязвимостями, и лишь потом подавать запрос на повторную проверку.
Итак, проблема: На сайте обнаружены взломанные страницы. Обычно хакеры загружают новые или изменяют существующие файлы, которые затем помечаются как спам в индексе Google.
Запрос: «Удалили вирус».
Результат: запрос был отклонен (потому что сайт по-прежнему остался взломанным)
Рекомендации:
Спам №3 – неинформативное и бесполезное содержание. Это сайты, созданные по одному шаблону, содержащие одинаковую информацию, которые не несут ничего полезного и ценного, а явно созданы только для того, чтобы вешать там рекламу:
Проблема: На сайте обнаружены низкокачественые или малоинформативные страницы. В их числе страницы партнерских программ, шаблонные страницы, дорвеи, а также страницы, содержание которых было создано автоматически или скопировано с других сайтов.
Запрос: «Добрый день! Сайт не участвует ни в биржах ссылок, ни в системе обмена ссылками»
Этот запрос никак не комментирует указанную проблему и не имеет никакого отношения к обнаруженным на сайте некачественным и неинформативным страницам.
Результат: запрос отклонен
Положительные моменты: только реакция вебмастера на полученное сообщение в целом
Рекомендации:
Покупные ссылки №1. Вот какие ссылки были обнаружены на сайте, который подавал запрос на повторную проверку:
Проблема: Текстовые объявления, которые учитываются системой PageRank (контекстная реклама, не помеченная, как реклама). Рекламные статьи или объявления, оплачиваемые за содержащиеся в них ссылки, которые учитываются системой PageRank.
Запрос: Узнали, что они использовали сервис N; попросили удалить все ссылки с сервиса N; для нашей компании неприемлема такая работа с сайтом, просим дать совет, где искать нарушения.
Удалить ссылки – это первое, что нужно было сделать. Однако, запросы на повторную проверку – это не то место, где можно получить совет. Максимум, что можно получить – это примеры покупных ссылок, которые нужно удалить.
Результат: отклонено 2 запроса
Однако, как сообщил Андрей Липатцев, на сайте ведутся работы, и его совершенно реально довести до соответствия рекомендациям Google.
Вопрос: - А как быть с теми случаями, когда Google естественные ссылки принимает за искусственные?
Андрей Липатцев: - Реально эти случаи очень редки. Но если это действительно случилось с вами, сообщайте нам об этом, обращайтесь к нам на форум. Если вам не нравится, как мы работаем, если замечаете какие-то наши ошибки, - сообщайте нам об этом. Мы хотим становиться лучше.
Положительные моменты:
Рекомендации:
Покупные ссылки №2.
Проблема та же, что и в первом примере со ссылками, однако, здесь уже речь идет именно о статьях, содержащих покупные ссылки.
Запрос: Мы удалили все некачественные ссылки; мы не можем влиять на большинство входящих ссылок; мы использовали инструмент Disavow Links.
Результат: запрос был принят со второго раза и меры, принятые вручную были отклонены.
Положительные моменты:
Рекомендации:
Мария Моева уточнила, что после удаления некачественных ссылок и возвращения сайта в выдачу, не нужно ожидать, что займет тоже самое место, что и до принятия к нему ручных мер. Сайт будет находиться на тех позициях, которых он заслуживает, без покупных ссылок и прочих попыток повлиять на результаты ранжирования.
Андрей Липатцев: - Я хочу напомнить еще раз, что алгоритмические изменения не происходят в результате обнаружения двух-трех ссылок, которые кому-то могут показаться искусственными. Дело не только в том, как выглядит та или иная ссылка в какой-то конкретной статье, а в том числе и в том, что происходит вокруг. Разница между покупными ссылками и естественными видна очень хорошо, потому что анализируется сразу весь контекст, а не одна эта ссылка или статья.
Видеозапись встречи можно посмотреть здесь
Комментарии