Автор: Сергей Людкевич - ведущий аналитик проекта «Поисковая Аналитика», супермодератор форума о поисковых системах Searchengines.ru. Сфера профессиональных интересов - исследование алгоритмов ранжирования поисковых машин, разработка методик поискового продвижения сайтов.



5 декабря сего года на конференции IBC Russia руководитель отдела веб-поиска Яндекса Александр Садовский объявил, что в начале 2014 года в ранжировании коммерческих запросов для московской выдачи перестанут учитываться ссылки.



Эта новость вызвала неоднозначную реакцию в среде российских SEO-специалистов. Заметная доля мнений имеет очевидный тренд - полная отмена ссылочного невозможна, нас не первый раз подобным образом пугают, а воз и ныне там, пронесёт и на этот раз. Другая часть осторожно замечает, что прежние заявления не носили столь однозначного и радикального характера, и возможно, стоит подумать о том, что они имеют под собой почву, и что с этим делать дальше.



На фоне всего этого мне хотелось бы проанализировать сложившуюся ситуацию и высказать вероятные на мой взгляд пути её развития.



Проблема первая. Можно ли ссылочные факторы чем-нибудь заменить?

Ссылочные факторы делятся на статические (не зависящие от запроса) и динамические (зависящие от запроса). Характерным примером статического ссылочного фактора является PageRank. Классический алгоритм PageRank имеет следующий физический смысл – вероятность нахождения пользователя на данной странице при условии, что тот блуждает по ссылкам сети и выбирает ссылку для перехода случайным образом. Т.е. по сути это некая усредненная модель оценки количества трафика для данной страницы. И ее с успехом можно заменить фактическими значениями, если есть возможность их измерить. А такая возможность у Яндекса есть – благодаря чудесам дистрибуции, доля Яндекс.Браузера по данным LiveInternet уже превысила 6%. В общем-то достаточно репрезентативная выборка. Тем более, если еще приплюсовать сборки сторонних браузеров с внедренными в них Элементами Яндекса, которые также собирают информацию о поведении пользователей.



Таким образом, Яндекс владеет фактической информацией о посещаемости страниц и необходимость в вероятностной её оценке естественным образом отпадает. Мне думается, именно это имелось в виду в уже изрядно подзабытом слогане «MatrixNet побеждает PageRank», который провозглашался яндексоидами три года назад. Также в последнее время все большее заметное влияние приобретают коммерческие факторы (о чем я писал в предыдущей статье). Они являются некоей оценкой качества коммерческого сайта и могут стать для коммерческих сайтов вполне адекватной альтернативой показателя авторитетности, каковым, по сути, являются статические ссылочные факторы.



С динамическими ссылочными факторами ситуация обстоит несколько сложнее. Анкор-файл, состоящий из текстов ссылок, ведущих на страницу, является весомым подспорьем к собственно тексту страницы при ранжировании. Особенно его влияние заметно при ранжировании по длинному хвосту низкочастотных запросов, когда часть слов запроса не содержится в тексте страницы, но присутствует в текстах ссылок на неё. На мой взгляд, для того, чтоб как-то компенсировать его влияние, необходимо составить обширный словарь синонимов. Например, на момент работы над этой статьей по запросу [горячие путевки на гоа] в московской выдаче на первом месте был документ, найденный именно по тексту ссылки на него:





В тексте данного документа слов горячие путевки не встречалось, зато были вхождения слов горящие туры, однако Яндекс не посчитал их синонимами. С отменой ссылочного, такой документ обязан исчезнуть из этой выдачи. По достаточно большому числу низкочастотных коммерческих запросов ссылочные динамические факторы играют весомую роль в ранжировании. И совершенно неясно, чем их можно заменить, кроме как значительно расширить словарь синонимов. Но, по большому счету, это задача решаемая. Кстати, одно из решений – не считать совсем уж низкочастотные запросы коммерческими. А для более-менее частотных запросов в выдаче все равно найдутся релевантные документы, содержащие все слова запроса, и отмена ссылочного качества выдачи сильно не испортит. Ну, и в принципе, оптимизаторы обязаны будут корректировать свои действия с учетом того, что длинный хвост низкочастотников уже не получится закрыть одним только ссылочным, придется поработать в этом плане и с текстами.



Проблема вторая. Опасность накрутки заменителей

Со слов Садовского, избавиться от ссылочных факторов было решено потому, что они перестали быть хорошим естественным сигналом для ранжирования. Уже несколько лет развиваются активно ссылочные биржи, и естественная ссылочная масса для коммерческих запросов, представляющих основной интерес для SEO-индустрии, просто утонула в массе платных ссылок. Мне думается, что есть еще одна причина – это активное захламление поискового индекса массой низкокачественных сайтов, созданных с единственной целью монетизации посредством продажи с них ссылок. Можно сколько угодно совершенствовать алгоритмы типа АГС, очищающие индекс от таких сайтов, но гораздо эффективнее уничтожить сам смысл их существования. В случае отмены ссылочного для коммерческих запросов, потребность в ссылках, а, стало быть, и в подобных сайтах, продающих их, значительно сократится, что подорвет экономическую подоплеку их возникновения.



Однако вызывает тревогу проблема промышленной накрутки факторов, которые будут компенсировать влияние ссылочных – в первую очередь, поведенческих факторов (ПФ), ответственных за посещаемость сайта и за поведение пользователей на сайте. Уже не один год существуют различные автоматические сервисы по накрутке поведенческих факторов и их число все растет. В своё время Яндекс дал развиться индустрии ссылкоторговли, и очень не хотелось бы, чтоб индустрия накрутки поведенческих вышла бы на подобные масштабы влияния на ранжирование. Тем более что накрутить поведенческие факторы еще проще, чем ссылочные. Тут не нужны площадки под ссылки, всю работу сделают люди, исполняющие задания, или, в конце концов, боты, мимикрирующие под людей.



Александр Садовский перед тем, как объявить об отмене ссылок, обозначил жесткую позицию в отношении накрутки поведенческих факторов. Если ранее накрутки, по его словам, просто отфильтровывались, то теперь они будут наказываться штрафами. Причем предусмотрена защита от действий конкурентов. Хочется надеяться, что эта защита будет действительно эффективной, и что сервисы продвижения с помощью поведенческих факторов не превратятся в сервисы «задвижения» конкурентов. Также хочется надеяться, что накрутки действительно будут обнаруживаться с достаточно большой точностью. Потому что, как показывает практика наблюдения за поисковыми подсказками, они накручиваются в данный момент достаточно легко:





В любом случае, новый алгоритм для коммерческих запросов, построенный без ссылочных факторов, более чем реален. Сеошники любят повторять байку, что когда-то, несколько лет назад, Яндекс якобы делал уже попытку отключения ссылочного, но ужаснувшись полученной выдаче, быстренько откатил все обратно. Полагаю, на это раз выдача будет не столь ужасна. И уж во всяком случае, нам придется принять её, какая бы она ни была. И научиться сотрудничать с ней. Думаю, это вполне реально для тех, кто еще не разучиться думать, анализировать и работать. И еще я очень надеюсь, что развесовка факторов новым алгоритме будет достаточно сбалансированой, и не произойдет так, что случайно выстрелит какой-нибудь поначалу совсем не очевидный фактор, который рано или поздно станет объектом накруток сеошников, как это уже не раз бывало в предыдущих релизах. В общем, надеюсь, что жизнь после отмены ссылочного будет намного интересней.




Обсудить  

Читайте также


Комментарии Кто голосовал Похожие новости

Комментарии