Автор: Рэнд Фишкин (Rand Fishkin) – генеральный директор Moz. Компания занимается разработкой ПО для оптимизаторов. К 2010 году доход агентства превысил 5 миллионов долларов, а пользующаяся софтом аудитория оптимизаторов достигла 250 тыс. Рэнд Фишкин – постоянный участник и докладчик крупнейших мировых конференций, посвященных SEO и маркетингу в интернете.
Источник: блог компании Moz.
Линкбилдинг может быть невероятно эффективной стратегией продвижения сайта в результатах выдачи. Но сегодня все чаще наблюдается иная картина: владельцы сайтов прикладывают колоссальные усилия, чтобы получить качественные ссылки, однако это не улучшает позиции сайта. В этом случае имеет смысл сосредоточиться на четырех аспектах, которые позволят добиться максимальных показателей.
В одном из майских выпусков Whiteboard Friday генеральный директор Moz Рэнд Фишкин (Rand Fishkin) делится секретами линкбилдинга и рассматривает наиболее популярные ошибки, которые могут быть допущены при построении ссылочного профиля сайта и не только.
Итак, рассмотрим пример: пользователь вводит в поисковую строку запрос [сахарозаменители]. Нам же необходимо улучшить позиции сайта ScienceMag.org по данному запросу. Допустим, сайт находится на 10 позиции, в то время как продвинуть его необходимо в ТОП-3. Ход мыслей оптимизатора будет таким: «Было бы очень неплохо улучшить позиции ресурса в выдаче. Я только что разместил на сайте новый контент. Google должен хорошо его индексировать». Этого вполне достаточно, чтобы находиться на нижних позициях первой страницы. Однако чтобы улучшить позиции ресурса, нужно предпринять целый комплекс дополнительных действий.
Исторически оптимизаторы придерживались следующего мнения: «Чем больше входящих ссылок проставлено на страницу – тем лучше. Если мы сумеем заполучить большое количество ссылок, ведущих на страницу, то сайт, несомненно, сможет продвинуться в результатах выдачи». Конечно же, есть множество других способов продвижения сайта в выдаче, однако чаще всего профессионалы отрасли используют именно ссылочное продвижение.
Одна из наиболее серьёзных проблем, с которой нередко сталкиваются оптимизаторы, сводится к следующему: специалист активно продвигает свой ресурс, контактирует с блогерами, издателями новостей и другими тематическими площадками, стараясь получить максимальное количество входящих ссылок. Однако в большинстве случаев эти действия не только не способствуют продвижению сайта в выдаче, но и могут явиться причиной, по которой ресурс потеряет позиции.
В дальнейшей части статьи сделана попытка разобраться, отчего это происходит.
В большинстве случаев имеет смысл посмотреть на процесс с другого ракурса, оставив в стороне вопросы поисковой оптимизации. Иногда есть смысл заказать аудит сайта сторонним специалистам и проанализировать ресурс сразу по нескольким аспектам, а не только с точки зрения качества ссылочной массы. Исправление найденных проблем и ошибок позволит успешно реализовать стратегию и тактику продвижения сайта. Не менее важно проанализировать весь ход реализации кампании по наращиванию ссылочной массы. Сделать это можно и самостоятельно. Детальный анализ позволит понять, почему усилия по продвижению той или иной страницы за счёт ссылок не дают ожидаемого эффекта.
Причины тому могут быть следующими:
Прежде всего, проблема может заключаться в неверном выборе доменов, с которых будут поступать на сайт ссылки. Здесь важно учитывать огромное количество различных факторов. К примеру, новые ссылки на сайт могут поступать из тех же источников, что и ранее. В большинстве подобных случаев Google, невзирая на количество входящих ссылок, не будет ранжировать сайт выше, особенно если речь идет о продвижении по высокочастотным запросам.
Еще один значимый аспект – степень доверия Google к ссылающемуся источнику. Если сайт заработал большой объём ссылок, но эти ссылки поступают из нетрастовых источников – это уже негативный сигнал для Google. Поисковые системы могут расценивать подобные ссылки как проплаченные или как проставленные «по договоренности» с издателем. Естественно, что такие ссылки не будут расцениваться как заработанные естественным путем. Сайт не только не продвинется в выдаче, но может и пострадать.
Подобные ссылки могут поступать на сайт со страниц или ресурсов, не обладающих достаточной степенью авторитетности для поисковой системы, чтобы сайт мог улучшить свои позиции в результатах выдачи. Еще менее эффективными такие ссылки окажутся для продвижения ресурса по высококонкурентным запросам. Времена, когда сайты придвигались за счет огромной массы ссылок, пусть даже поступающих с некачественных ресурсов, давно миновали. Google научился тщательно оценивать каждый сайт с точки зрения качества его ссылочной массы.
Источник имеет значение: существует целый ряд источников, получение ссылок с которых Google расценивает как попытку манипулирования выдачей. В этом случае алгоритмы Google могут при подсчете веса, передаваемого странице, «обнулять» показатели для определенных доменов или сайтов.
Также поисковые алгоритмы могут учитывать релевантность ссылающегося источника содержимому страницы. Так, например, если на статью об искусственных подсластителях будет вести ссылка из заметки, посвященной принципиально иной теме (к примеру, ссылка из статьи про гаджеты в технологическом журнале), то Google, скорее всего, расценит такую ссылку как платную. Алгоритмы поисковика обращают внимание на тематику контента; область знаний, которую он охватывает; региональность ресурсов и т.п. Кроме того, важно понимать, что требования к качеству ссылочной массы для сайтов различных тематик со стороны Google будут разными. Так, например, алгоритмы Google особенно пристально анализируют тематическое соответствие ссылок в такой области знаний, как медицина.
Расположение ссылки на странице также имеет значение: к примеру, если на сайт поступают группы ссылок с различных доменов, однако все эти ссылки на сайтах размещаются, к примеру, в правой боковой колонке, Google может расценить их как рекламные, а не редакционные. Аналогичная ситуация со ссылками в футере сайта. Сегодня они не работают. Владельцам ресурсов имеет смысл проставлять ссылки лишь на страницы, релевантные их содержимому. Только в этом случае простановка ссылки будет воспринята поисковой системой положительно.
Что касается уникальности контента, то здесь ситуация еще интереснее. Предположим, на сайт поступает масса ссылок от владельцев ресурсов, которые дублируют на сайте-получателе свои же статьи. Такой контент никогда не будет воспринят Google как публикация редакционных материалов. Статьи будут рассматриваться алгоритмами поиска как дублированные, а ссылки не будут передавать вес странице.
Таким образом, получение ссылок как таковое не должно становиться самоцелью для владельцев сайтов. Прежде, чем приступать к разработке стратегии линкбилдинга, важно произвести аудит ресурса, проанализировав качество его ссылочной массы. Зачастую люди слишком сильно сосредоточены на приобретении ссылок, как таковом. Однако количество входящих ссылок далеко не всегда служит на благо ресурсу.
Иногда имеет смысл задуматься о тематической направленности контента. Нередко приходится выбирать между публикацией актуального, но быстро устаревающего контента и, так называемого, «вечнозеленого». Что же касается Google, то поисковик по-разному интерпретирует поведение пользователей на странице в зависимости от типа запроса. Так, например, если пользователь вводит запрос [искусственные подсластители], то Google рассуждает следующим образом: «Нет ничего плохого в том, что на сайте опубликованы результаты недавнего исследования сахарозаменителей, представленных на рынке. Однако не исключено, что в ТОП-3 пользователь захочет увидеть общий справочный (тот самый «вечнозеленый») текст, который бы содержал весь спектр общих вопросов, связанных с конкретной тематикой».
Приведенный выше пример свидетельствует о том, что зачастую актуальная на конкретный момент времени информация может вовсе не способствовать решению задач пользователей. В свою очередь, владелец сайта будет считать, что данный тип контента идеально отвечает поисковым запросам. На самом деле, ответа лишь на один поисковый запрос вовсе не достаточно – необходимо расширять контент-наполнение сайта. У пользователей может возникать множество вопросов, связанных с конкретной темой, и Google будет пытаться предоставить в поисковой выдаче результаты, которые бы давали исчерпывающий ответ и были бы релевантны запросу. Google не устроит, если пользователь поиска покинет сайт с мыслью: «Это было интересно, но мне нужен несколько иной результат». Главная цель поисковой системы – обеспечить пользователям высокое качество выдачи. Этой цели подчинена вся работа поисковика. Ранжируя сайты, Google руководствуется лишь одним критерием – удовлетворенность пользователей результатами поиска.
Ещё один значимый фактор – юзабилити. Именно негативный пользовательский опыт заставляет людей покидать сайт и возвращаться на SERP. Понятие юзабилити включает в себя широкий спектр различных факторов: это и скорость загрузки сайта, и удобство пользовательских интерфейсов, и верстка слоёв сайта, и настройка видимости сайта в различных браузерах, и наличие адаптивного дизайна, и возможность работы с сайтом с различных мобильных устройств.
Не стоит также пытаться адаптировать язык и стиль текста с тем, чтобы он «понравился» поисковой системе, которая бы впоследствии стала «предлагать» сайт пользователям в качестве ответа на любой более или менее релевантный запрос. Если текст изобилует терминами и написан в научном стиле, то большинство пользователей, ищущих простые ответы на свои запросы, просто-напросто не поймет его. Недопустима и обратная ситуация. Если в ответ на сложный информационный запрос в выдаче будет показан сайт с примитивными статьями – пользователь также разочаруется. Основная задача алгоритма Hummingbird заключается в том, чтобы максимально точно устанавливать взаимосвязи между ключевыми словами и сущностями, предоставляя пользователям максимально релевантные их контекстам результаты.
В довершение всего, конетнт ресурса может попросту не совпадать с ожиданиями пользователя. Причиной тому могут быть различия между запросом пользователя и истинной целью вода этого запроса. Так, например, вводя запрос: «Какое влияние на мой организм может оказать употребление искусственных сахарозаменителей?», человек может подразумевать следующее: «Я хочу найти информацию и изучить ее». В этом случае простой констатации факта, что употребление сахарозаменителей способствует улучшению состояния кожи, будет совершенно не достаточно для раскрытия темы. При таком подходе пользователь, скорее всего, не получит ответа на свой запрос, а значит, сайт не будет ранжироваться высоко.
Еще одна проблема связана с неверным выбором домена. Домен, на котором размещается сайт, может не ассоциироваться с его тематикой и контентом. Так, например, сравнивая названия доменов: Mayo Clinic, MedicineNet, ScienceMag и др., алгоритмы Google могут «усомниться» в том, что на последнем из перечисленных (ScienceMag) размещается информационный сайт, посвящённый тематике здоровья. При несоответствии имени домена тематике сайта поисковая система может расценить его использование, как попытку манипулирования результатами выдачи. В то же время, нередко приходится наблюдать такую ситуацию, когда пользователи охотно кликают по результатам выдачи с упоминанием определённых доменных имен и брендов. Именно по этой причине важно формировать бренд в интернете, повышать его узнаваемость и создавать уникальный брендированный контент. В долгосрочной перспективе такой подход оправдывается.
Наконец, причиной неэффективности ссылочного продвижения могут быть технические проблемы. К примеру, ссылающаяся страница может отдавать ошибку. Также на ней может неправильно отображаться контент. Обычно это случается из-за ошибок кэширования. Этим аспектам также стоит уделить пристальное внимание.
Используя перечисленные выше простые приемы аудита сайта, можно выявить ряд недочетов и ошибок, связанных с ресурсом и выбранной стратегией оптимизации, устранить их и в конечном итоге продвинуть сайт в результатах выдачи.
Комментарии