12 марта 2015 года в Киеве проходит конференция для профессионалов SEMPRO 2015. Это мероприятие уже стало традиционной точкой сбора SEO-специалистов Украины и СНГ. В этом году свои доклады здесь представляют лучшие SEO-эксперты Европы, России и Украины.
Особенностью SEMPRO 2015 является освещение реальных подходов в продвижении успешных проектов на западных рынках. Специалисты говорят о том, о чем на конференциях говорить непринято - о дорвеях, накрутке поведенческих факторов, негативном SEO и множестве других интересных и «глубоких» тем. Уровень докладов, действительно, средний и выше, как и было заявлено организаторами конференции.
Дмитрий Севальнев из компании «Пиксель Плюс» представил доклад, посвященный пограничным технологиям продвижения сайтов, таким, которые еще не являются черным SEO, но уже и не находятся на так называемой «белой стороне».
Дмитрий рассказал о «серых» технологиях, вполне соотносимых с рисками для сайта, которые можно использовать для продвижения как в Яндексе, так и в Google.
Подобные технологии используются для ускорения индексации сайта и снятия санкций поисковых систем. Определенные изменения во внутренней оптимизации сайта также способны улучшить характеристики сайта и привлечь на него дополнительный трафик. Работа с поведенческими и ссылочными факторами тоже не является стопроцентно черным SEO, как с некоторых пор принято считать. И здесь есть свои возможности улучшения позиций сайта без вреда для него.
По сути, индексация сайта – это учет url поисковой системой. Проблемы с индексацией страниц в большей мере касаются Яндекса, потому что то, что уже давно проиндексировалось в Google, все никак не хочет индексироваться в Яндексе. Какие же есть у ПС источники информации об url?
Если смотреть с точки зрения логики, то в интернете существует большое количество url, и Яндексу нужно понимать, насколько тот или иной url важен, для того, чтобы потом установить очередность обхода. Манипулирование заключается в том, чтобы внедриться в эту очередь по индексации сайта. Вместо отобранного ботом url подставить свой можно при помощи сервисов – getbot.guru или fastbot.org. Они работают, привлекая бота на свои трафиковые сайты или социальные сети, скармливая ему ссылки, и вместо имеющейся там ссылки, подсовывают нужную. Это не совсем серый способ привлечения бота на нужный сайт.
Также Дмитрий советует ускорять индексацию страниц при помощи новостного робота поисковых систем. Так, например, Яндекс быстро индексирует интересные новостные результаты, и его быстро-робота тоже можно привлечь при помощи перечисленных сервисов к себе на сайт.
Есть ли какие-то риски в этой технологии? Дмитрий считает, что все-таки это некий вид спама. В последнее время робот стал медленнее работать. Но вполне возможно, что ПС не видит в этом каких-то рисков, однако нужно с осторожностью относиться к этому моменту.
Кроме всего перечисленного, для улучшения индексации сайта не забываем и про такие обычные, «светлые» способы, как:
Главным достоинством этой технологии является то, что по 301-редиректу не могут передаваться санкции, иначе данный прием можно было бы использовать для бана (пессимизации) без непосредственного доступа к сайту.
301-й редирект хорош для снятия ручных санкций, примененных к сайту и какой-то другой, значительной пессимизации (например, ПФ). Передаются ли по 301-му редиректу какие-то санкции, зависит от конечной цели редиректа. Так, например, если с домена поставить редирект на ФБ, то Панда (если она была на сайте) туда не перейдет – потому что это совершенно разные вещи.
301-й редирект также помогает против залипания позиций, создается альтернативная страница, на нее переносится новый контент, ставится 301-й редирект и таким образом страница попадает в индекс.
К технологиям по работе с внутренними факторами Дмитрий отнес генерацию посадочных страниц, шаблонизацию и работу с текстовыми факторами.
Чем больше страниц в индексе, тем выше на них трафик. Поэтому важно сделать как можно большее количество посадочных страниц, но не просто дублирующих друг друга, а содержащих какую-то новую для пользователя, уточняющую информацию.
Например, можно взять сайт одного из отелей Киева. Посадочные страницы должны быть разными – каждая последующая должна содержать новую дополнительную информацию - ценовой диапазон, число звезд, любое свойство, которое вебмастер может разметить. Можно вводить геолокацию, и делать страницы, добавляя это разделение.
Делается некий шаблон, в который от страницы к странице добавляется новое описание, вводятся некоторые тексты. Минусов от использования шаблонов нет никаких, а вот при использовании текстовых шаблонов можно поймать некоторые проблемы. Использование шаблонов текста способствует появлению большого количества дублированного текста внутри сайта, а ПС считают, что весь контент на страницах хорошего сайта должен быть уникальным. К тому же, эти тексты часто содержат ошибки.
Из профитов этой технологии Дмитрий отметил очень быструю генерацию и минимальные финансовые затраты. Программист за 2 часа реализует любой шаблон, а страницы, генерируемые таким образом, вполне могут считаться уникальными, пусть даже и с натяжкой.
Более интеллектуальные шаблоны строятся при помощи изменения структуры текста, смены места абзацев, внедрения новых параметров – например, указание не только станции метро, но и еще трех ближайших кафешек или достопримечательностей, находящихся в шаговой доступности от отеля. Также к более продвинутым видам шаблонных текстов относятся рандомные блоки: отзывы, комментарии, примеры работ.
А можно выбрать светлую сторону и перейти на полностью человеческие описания и уникальный контент. Но это все дорого и долго. А среднестатистический клиент все хочет бесплатно, с гарантией и быстро.
Дмитрий напомнил, что в Яндексе появились санкции за накрутку поведенческих факторов. Интересно, что позиции Яндекса и Google по поводу накрутки ПФ - диаметрально противоположны. Яндекс жестко карает наложением фильтра на срок до 6 месяцев, а Google говорит, что никаких ПФ не существует в принципе, и потому ему на накрутку того, чего не существует, наплевать.
У Яндекса борьба с ПФ сейчас похожа на обнаружение допинга у спортсменов – по принципу: не найдем сейчас – забаним потом. А Google говорит, что если эти ПФ где-то и существую в природе, то на ранжирование сайтов они никак влиять не могут, а используются только для оценки качества поиска (то есть: оценки новых алгоритмов ранжирования, поиска низкокачественных SERP).
Чья же позиция успешней? В Яндексе наблюдается довольно низкая эффективность работ по накрутке ПФ. То есть, та самая «серебряная пуля» уже на излете. В Google этот процент гораздо выше, в этой поисковой системе накрутка ПФ срабатывает чаще, чем в Яндексе.
Дмитрий рассказал, что в рунете в последнее время получила распространение технология «живого щита» – это чистое черное негативное SEO. Но есть сайты, которые готовы торговать такими услугами. В Google ситуация обратная – все довольно спокойно, все накручивают и у всех получается. Однако, Дмитрий предупредил, что для Яндекса все манипуляции с ПФ – за гранью добра и зла.
Но есть и пограничные методы, которые вполне можно осторожно применять. Так, увеличение числа запросов какого-то конкретного бренда приводит к повышению позиций сайта. Переходы по брендовым запросам обеспечивают увеличение доли переходов по витальным запросам и рост среднего CTR.
Поисковые подсказки также хорошо увеличивают целевой трафик. Происходит накрутка запросного индекса. (Запросный индекс – это такой индекс сайта, который Яндекс формирует, анализируя поисковые запросы, по которым люди на этот сайт заходили).
Фактически происходит манипулирование поисковыми подсказками. Добавление туда брендов позволяет сайтам получать хороший целевой трафик. Люди этими поисковыми подсказками пользуются, и трафик идет на сайт.
Месть ПС сервису накрутки поведенческих:
Как поисковая система определяет накрутку поведенческих? Дмитрий представил некоторые ориентировки для оценки. Так, например, наверняка сайт будет заподозрен в «активации» факторов, если трафик по ссылкам превосходит трафик из поиска, а трафик из поиска, в свою очередь, больше, чем 3-5 тыс. в месяц. Если исходящий трафик больше, чем трафик по ссылкам и чем 1тыс. в месяц.
Пограничный метод - переходы с социальных сетей. Их можно тоже отнести к трафику по ссылкам. На практике мы имеет парад работающих и неработающих методов:
Дмитрий отметил, что очень мощно работают ключевые фразы с прямым вхождением бренда. Если поисковые подсказки качественно подобрать, накрутить и потом чтобы люди с удовольствием пользовались ими, могут стать отличным источником целевого трафика.
По мнению Дмитрия, ссылочные факторы – это такая штука, которая уже смело может относиться к серым технологиям. Как и с накруткой поведенческих, в Яндексе и Google наблюдается совершенное различие подходов.
В Яндексе есть фильтр за большое число «плохих» (спамных) ссылок. За покупку ссылок есть опасность словить ссылочный взрыв. Есть возможность поймать фильтр «Переспам» по ряду запросов. Есть желание «отменить» ссылки по коммерческим запросам.
В Google имеется известный всем фильтр «Пингвин» за анкор-лист. Есть понятие ссылочный взрыв, но пороги значительно более лояльные, чем в Яндексе. Есть ручные санкции за искусственные ссылки (панель Вебмастера).
Дмитрий считает одним из эффективных «серых» методов - сайты–сателлиты. Они имеют целый ряд преимуществ, но и какие-то риски есть. По этой теме можно сделать целый отдельный доклад. Основная трудность – с сателлитами нужно работать.
Также тут очень большой проблемой становится некая инертность самих клиентов, для которых можно долго и вдумчиво выстраивать сеть сателлитов, а они могут в конце отказаться, не захотеть использовать эту технологию или вообще уйти.
В случае установки нескольких ссылок с одного сайта-сателлита, для увеличения передаваемой доли PR и учета анкоров, рекомендуется:
Комментарии