12 сентября 2013 года состоялась очередная видеовстреча с вебмастерами «Приемный час». Встречу провели сотрудники команды качества поиска Google Мария Моева и Андрей Липатцев, которые ответили на вопросы вебмастеров.





Вопрос: С чем может быть связано массовое падение позиций сайтов в доменной зоне .in.uа?



Андрей Липатцев: С этим доменом случилась внештатная ситуация. Мы в курсе, и уже пытаемся разобраться. Как только будет какое-то решение, будет сообщено на форуме.



Вопрос: На форуме есть тема, где в ответе на пересмотр была указана естественная ссылка. Это подтвердил Андрей Липатцев, и сослался на человеческий фактор. Как можно быть уверенными, что на самом деле существуют «неестественные» ссылки, а это не просто видение сотрудников Google?



Андрей Липатцев: Чтобы быть уверенными, что существуют неестественные ссылки, можно зайти на любую биржу, там подтвердят, что они существуют. А если серьезно, в отношении конкретного сайта — то нужно понимать, что в ответе на запрос о повторной проверке приводятся только примеры, и относиться к ним нужно именно так. Часты случаи, когда вебмастер подает запрос на повторную проверку, получает ответ и несколько примеров, удаляет именно эти ссылки или отклоняет их через инструменты отклонения, и снова подает запрос. Это может продолжаться достаточно долго. И это тратит время как самого мастера, так и сотрудников, обрабатывающих подобные запросы.



Примеры не означают, что проблемы только в этих конкретных двух-трех ссылках, они указывают в принципе на тип неестественных ссылок, которые ведут на этот сайт. В том числе, могут приводится примеры ссылок, которые уже стоят на отклонении. Они могут просто иллюстрировать то, о чем идет речь. Такие примеры редки, но есть. Но обычно приводятся ссылки, которые явным образом куплены через ссылочные биржи. Даже если они были отклонены. Примеры приводятся, во-первых, для того, чтобы заставить вебмастеров проверить, что еще есть такого рода на сайте. Во-вторых, общение с вебмастерами не заканчивается запросами на повторную проверку и ответами на них. Поэтому существует форум для вебмастеров, поэтому существуют эти видеовстречи.



Мария Моева: Меры вручную не принимаются из-за трех-пяти ссылок. Если в отношении сайта были приняты меры вручную, это значит, что там действительно есть серьезная проблема.



Вопрос: Можно ли все низкокачественные ссылки отклонить, или обязательно их удалять?



Андрей Липатцев: Если коротко — то лучше постараться удалить. Особенно это касается ссылок, масштабно закупленных по какой-то автоматизированной программе. Продолжение участия в такой программе свидетельствует о том, что те ссылки, которые были отклонены сегодня, завтра добавятся из той же самой программы.



Мария Моева: Тут есть комментарий о том, что некоторые биржи не позволяют это сделать, не позволяют закрыть аккаунт. Вебмастер, удаливший ссылку, будет наказан.



Андрей Липатцев: Сложный этический момент. Во-первых, вебмастер, не удаливший ссылку, подвергает себя риску принятия мер вручную со стороны поисковой системы. И что для него интереснее — продолжение работы с биржей или продолжение наличия в органическом поиске? Тут каждый для себя решает сам. Что же касается людей, которые раньше участвовали в покупке ссылок, а теперь не могут добиться от продавцов снятия, то это просто нужно описать в запросе на пересмотр после ручных мер, и ситуация будет рассмотрена.



Google придерживается мнения, что хорошим сайтам покупные ссылки не нужны. Понятно, что это заявление вызывает бурю возмущения. Многие и русские, и украинские сайты, практически все вовлечены в куплю-продажу ссылок. Сейчас ситуация очень сложная. Говорить, что ссылками занимаются только некачественные сайты сейчас нельзя. И это усложняет ситуацию. Но это не значит, что Google откажется от своего подхода. Это не значит, что в долгосрочном плане будет заявлено: да пусть все покупают ссылки, ничего страшного! Основной принцип ранжирования Google такой, что в результатах должны оказываться самые лучшие сайты, пользующиеся наибольшей органической популярностью. Люди пытаются повлиять на это неестественным образом, а это идет вразрез с самой философией компании.



Вопрос: Есть два сайта, они находятся в топ-10 по запросу «квартиры посуточно киев», частотность запроса по точному вхождению около 28 тысяч в месяц, довольно конкурентный запрос. С начала января они делают конвейер, десятки доменов, закупают ссылки с прямым вхождением, без околоссылочного текста, без ничего, самая «чернота», которая только может быть. Сайты выходят в топ, получают достаточно большую посещаемость. Сайт фильтруется, вылетает. На нем тут же делается поддомен, делается туда редирект. Потом покупается новый домен, со старого опять делается редирект. И так постоянно. Очень тяжело находиться рядом. Как с ними конкурировать?



Андрей Липатцев: Очень тревожная и неприятная новость. Мы рассмотрим эти примеры.



Вопрос: Насколько Google предпочитает сайты с разметкой?



Мария Моева: Есть несколько разных видов разметки. Наличие авторской разметки, может быть, скажется на том, где сайт окажется в результатах поиска. Для всех остальных видов разметки (на данный момент их поддерживается семь) - их наличие на ранжировании сайта никак не сказывается. Но, если на сайте будут расширенные сниппеты, то есть большая вероятность того, что пользователь перейдет именно на этот сайт. Поэтому, если на сайте есть содержание, которое подходит под виды разметки, например, товары, события, фирмы, люди, музыка, то делать ее стоит. Не говоря уже о том, что очень скоро может получится так, что информация, которую размечает вебмастер на сайтах, будет показываться в Графе знаний (Knowledge Graph).



Конечно, не надо делать разметку только ради самой разметки. Если на сайте есть что-то полезное, и разметка может помочь пользователю и поисковикам лучше разобраться в содержании сайта, то сделать ее рекомендуется.



Вопрос: Будет ли постоянно продолжаться точечная охота на сайты из-за неестественных ссылок, или будет что-то глобальное?



Андрей Липатцев: Думаю, что команда по борьбе со спамом будет в дальнейшем продолжать принимать меры вручную, поскольку по мере того, как вводятся фильтрующие алгоритмы, люди изобретают все новые хитрости, чтобы скрыться от системы обнаружения. Поэтому будет постоянно идти работа для того, чтобы обнаружить эти новые методы, и это касается не только ссылок. Для этого и существует отдел по борьбе со спамом вручную, чтобы находить новые виды веб-спама, давать рекомендации инженерам команды, переходить на новые этапы. «Что-то глобальное» уже есть, и оно далеко не одно. Изменения в алгоритмы вносятся постоянно.



Готов поспорить с мнением, что все или почти все достойные коммерческие проекты покупают ссылки и будут это делать. Купля-продажа ссылок имела эпидемический характер не только в России. Но этому приходит конец. Все стремится к тому, чтобы качественный ресурс с отличным интересным контентом не считал себя вынужденным бегать на ссылочную биржу. Это несолидно и несерьезно.



Вопрос: Сейчас просто нереально естественным способом, естественными ссылками добиться хороших позиций по частотным ключевым словам. И получается, что большой хороший проект стоит на месте или даже идет в минус, и приходится нарушать рекомендации Google. И проект попадает под санкции. На проекте есть разные поддомены для разных городов. Три домена попали под санкции за неестественные ссылки. Проводится работа по устранению. Только на один поддомен идет около пяти тысяч ссылок. Большая часть из них естественная. Чтобы вручную разбирать, где можно снять а где нельзя, где можно закрыть, может уйти несколько месяцев. И тяжело определить, естественная ли ссылка.



Андрей Липатцев: Естественная ссылка никоим образом не должна быть в "nofollow". К естественности это вообще не имеет отношения. Главное — были ли для продвижения использованы покупные ссылки. Не всегда у вебмастеров есть возможность полностью получить список ресурсов, на которые были проставлены ссылки. Но это, скорее, повод оказать давление на те ссылочные биржи, которые этим занимаются, чтобы получить такой доступ, чтобы иметь возможность за свои деньги, на свой страх и риск, ссылки купить, но потом иметь право эти же ссылки и снять.



О той ситуации, что везде все нарушают, поэтому для того, чтобы продвинуться, нужно тоже нарушать, а тот, кто отказывается, оказывается в проигрыше. Сложная ситуация. Но это происходит, что в России, что в Украине, не только относительно ссылок, но и в других сферах. Все что-то нарушают, и, чтобы оказаться наравне, тоже нужно нарушать. Все зависит от того, как хочется дальше жить. Среди постоянных нарушений? Уже очень многие, и в сфере SEO, пришли к полному пониманию, что это не путь вперед, и есть другие, гораздо более интересные способы работы. Постепенно это будет развиваться.



Вопрос: Мера «Искусственные ссылки...», принятая к верхнему домену, оказывает влияние на ранжирование документов, которые расположены на поддоменах?



Андрей Липатцев: Если изначально меры были приняты именно к поддоменам, то они больше ни к каким частям сайта не относятся, кроме как к тем, которые лежат еще глубже. Если же речь идет о том, что меры были приняты ко всему сайту, то они будут относиться потом и ко всем новым поддоменам.



Вопрос: Команда разработчиков делает портал туристической тематики. Сразу делает разметку. Но для большей части параметров нет спецификации. Как будет к этому относится Google — игнорировать, автоматически воспринимать, или как-то еще? Яндекс уже пытается это учитывать.



Мария Моева: В справке есть в деталях все, что на данный момент учитывается. То есть, эта разметка не помешает, но на данный момент и не поможет. С другой стороны, разработчики Google стараются постоянно расширять охват того, что распознается и показывается в результатах, так что существует большая вероятность, что в будущем добавятся другие виды разметки. Но если хочется, чтобы что-то уже показывалось в выдаче, то стоит проверить, что поддерживается на данным момент, и это использовать. А потом уже заниматься чем-то другим.



Вопрос: Стоит ли закрывать страницы пагинации с помощью mеta nаme="robоts" contеnt="nоindex, fоllow" или link rеl="cаnonical"? Или корректнее будет прописать rеl="prеv" и rеl="nеxt"? Станицы пагинации иногда попадают в опущенные результаты. Иногда их можно увидеть под надписью «...мы нашли страницы, очень похожие…».



Андрей Липатцев: Это, во-первых, напрямую не связано. Гораздо легче будет показывать релевантное содержание в результатах, если будет понятно, что страницы — часть большой статьи, для этого использовать rеl="prеv" и rеl="nеxt", и нет причины закрывать их от сканирования, а тем более от индексации.



Вопрос: Если это не части статьи, а страницы с результатами, где будет 50 одинаковых страниц телевизоров?



Андрей Липатцев: У магазина самый уникальный контент — это товар, а не какие-то мифические описания этого товара. Если речь идет о результатах поиска и сортировки, то нужно просто обратиться к функциональности контроля url. И некоторые параметры просто исключить вообще. Поиск или определенную фильтрацию. Для магазина это самое эффективное решение.



Вопрос: Как часто обновляется информация о robots.txt? Этот файл был обновлен ориентировочно месяц назад, но до сих пор в индексе есть страницы, которые закрыты в файле robots.txt, хотя сейчас они уже разрешены.



Мария Моева: Файл robots.txt проверяется примерно два раза в сутки, иногда чаще потому, что для Google очень важно придерживаться всех инструкций, которые указывают вебмастера. Но, даже если файл изменился, то роботу понадобится некоторое время, чтобы снова зайти и увидеть, что страницы не запрещены для сканирования. И это зависит от того, насколько часто сканируются страницы сайта. Можно ускорить это через инструменты для вебмастеров, отправить на индексирование.



Вопрос: В последнее время на форуме участились сообщения, что, когда сайт блокируется за вредоносный контент, и в инструменте для вебмастеров появляется соответствующее сообщение в разделе о вредоносных программах, в этом разделе отсутствует возможность запросить пересмотр сайта. С чем связана подобная ситуация?



Андрей Липатцев: С одной стороны, Google предупреждает, что на сайте появился вредоносный контент, и это видно в инструменте для вебмастеров. С другой стороны, Google предупреждает пользователей в интернете, что сайт может содержать вредоносный контент.



Мария Моева: Это часто случается, когда на сайте, с которым все в порядке, есть реклама третьего сайта. В таком случае, у вебмастера не будет возможности подать запрос на проверку, но все равно надо разбираться. В сообщении по возможности описывается, что произошло, приводятся примеры вредоносного кода, примеры страниц, где была обнаружена проблема. И нужно посмотреть, даже если с сайтом все в порядке, если там нет рекламы или баннера третьего сайта, а в коде сложно разобраться, то можно обратиться на форум, там постараются помочь.



Вопрос: Два сайта. Один сайт санатория, где подробно рассказывается только об этом санатории. Второй сайт для любителей отдыха в горах, где приводится список различных санаториев, куда включена информация с первого сайта. Продажей всех путевок занимается туристическая компания, у нее один телефон. Как к этому относится Google?



Андрей Липатцев: Совершенно замечательно относится. В описанной ситуации Google вообще ни при чем. Все выше перечисленное не имеет никакого отношения ни к ранжированию, ни к сканированию. Сайты-сателлиты — это другая ситуация. Например, есть магазин с какой-то услугой, с бронированием билетов. И создаются много сайтов, не имеющих никакой собственной информации, вся скопированная, и при любом нажатии в любом месте сайта пользователь уходит на основной сайт либо куда-то еще, и делается это с целью получить деньги за трафик. Такой вариант будет нарушением рекомендаций Google. А если это будут разные сайты, то Google так и будет считать: сайт санатория — это сайт санатория, сайт турфирмы — это сайт турфирмы, сайт с какими-то рецензиями — это уже третий сайт. И они будут показываться в выдаче в разных ситуациях по разным запросам в зависимости от того, что именно ищут.



Обзор подготовила Александра Кирьянова




Обсудить  

Читайте также


Комментарии Кто голосовал Похожие новости

Комментарии