Автор: Саймон Пенсон (Simon Penson) – до того, как заняться вопросами создания онлайн-аудиторий, работал журналистом и редактором бумажных изданий. Им создано агентство интернет-маркетинга Zazzle Media. Его публикации можно найти во многих блогах, посвященных проблемам маркетинга в интернете, кроме того, Саймон часто выступает на тематических конференциях и семинарах.
Черное SEO постепенно побеждает Google. Несмотря на непрекращающиеся, отчасти эффективные, действия по зачистке поисковой выдачи и созданию привилегированных условий для тех, кто использует брендовую тактику, по многим ключевым запросам мы все еще видим засилье ссылок на сайты, использующие хитрые приемы и игры в черное SEO. Даже знакомые нам зверьки, Панда и Пингвин, не смогли переломить ситуацию. Создатели подобных сайтов постоянно находят новые, более изощренные приемы.
На днях The Independent опубликовала анализ ситуации с сайтами краткосрочных кредитов, высоко ранжируемых Google. Управлению добросовестной конкуренции (США) даже предложили разобраться, почему так много сайтов делают бизнес на краткосрочных кредитах, не имея лицензии на данный вид деятельности.
Но дело на этом не заканчивается. Анализ высококонкурентных ниш, включая азартные игры, позволяет увидеть, что данная проблема успела распространиться довольно широко. Владелец одного из сайтов даже детально описал, насколько сложна подобная «работа» и как трудно уйти из этого «дела».
Вопрос состоит в том, как им удается пробиться высоко в столь сложных нишах, и что может поделать с этим Google?
Тактика попадания в «топы» в нише краткосрочных кредитов была хорошо описана CognitiveSEO, но, кажется, что похожие техники «бомбардировки ссылками» можно использовать и в других «дорогих» нишах, например, в выдаче по запросам, касающимся азартных игр.
Основная гипотеза довольно проста. Проанализируйте любой из сайтов, попавших в первую десятку google.co.uk по запросу «payday loan», и вы увидите, что они «питаются» ссылками с блогов или сеток сайтов. Ссылки эти могут быть поставлены владельцами ресурсов добровольно или появиться в результате взлома сайтов. В подавляющем большинстве случаев, доменным именам, занявшим верхние места в поисковой выдаче, нет и месяца.
И не сложно понять, почему им удалось добиться этого результата. После взлома чужих сайтов или организации собственной сетки, создается скрипт, позволяющий быстро вставить сотни ссылок на продвигаемый домен с использованием точной фразы в анкоре.
Часто они вначале тестируют эту сетку на каком-нибудь сайте, хозяин которого ни о чем не подозревает. Если эффективность подтверждается, то ссылки переключаются на нужный домен, а в выдаче возникают внешне непонятные скачки позиций.
Обычно все эти ссылки не проставляются мгновенно. Они постепенно добавляются на протяжении одной–двух недель. Если посмотреть профиль сайта pollyspaydayloans.org.uk (занимавшего первое место в момент написания статьи), то видно, что домен был зарегистрирован 19 октября.
В тот же день он начал получать ссылки на главную страницу, в большинстве из которых используется агрессивный анкорный текст:
Эта тактика, несомненно, вскоре попадет под прицел алгоритма Penguin, EMD или Песочницы, но существует один трюк, который позволяет продлить жизнь такого сайта, обманывая пауков Google.
Чтобы понять, почему это работает, надо в общих чертах разобраться в том, как Google сканирует сайты в настоящее время.
Известно, что текстовый поисковый робот, Googlebot, исследует веб, записывает и организует сайты и страницы, читая код, на котором и построены сайты. Но демонстрация визуальных представлений сайтов в поисковой выдаче, разработка браузеров без пользовательского интерфейса и возникновение предположения о том, что Google использует браузеры Chrome в качестве одного из элементов своей системы исследования веба, привели к появлению гипотезы, что поисковик может не только «читать», но и «видеть» веб-страницы.
Разбираемый в статье трюк базируется на предположении о том, что эти два типа пауков не работают в паре друг с другом, и даже не «переговариваются» между собой, поэтому «текстовые» пауки не могут сравнить результат своего анализа страницы с тем, что видят «визуальные» пауки.
Множество сайтов занимают высокие позиции в поисковой выдаче, с помощью хитрого трюка с CSS – ссылки прячутся в сильных местах, которые позволяют передать значительный вес и, одновременно с этим, обмануть Googlebot, продляя тем самым время нахождения на верхних позициях.
Множество ссылок с нужными ключами размещается так высоко, что они «невидимы» обычному пользователю; часто они сидят в заголовке в пикселе с позицией -9999px или где-нибудь рядом. Поэтому, люди и «визуальные» пауки не видят данные ссылки, а Google далеко не сразу понимает, что сайт, на который они ведут, незаслуженно занимает высокие позиции в поисковой выдаче.
Этот хитрый код выглядит примерно так:
Кроме того, что этот прием позволяет купить дополнительное время высокого ранжирования сайта, Google также может рассматривать подобную ссылку, как размещенную в заголовке, и передавать с ней еще больше веса. В 2004 г. Google подал заявку на патент, предполагая придавать ссылкам, расположенным на этих позициях больше релевантности.
Черные оптимизаторы пользуются этой уловкой, чтобы делать деньги. Они понимают, что придет время, и Google сложит информацию, собранную на основании текстового и визуального исследования, в единое целое. Тогда сайт обязательно исчезнет из выдачи через Песочницу, Панду или Пингвина, но, к тому времени уже будет собрано достаточно денег, чтобы запустить новый сайт. И все повторится.
Нет никаких сомнений в том, что инженеры Google прекрасно осведомлены о данной проблеме. И ее актуальность постоянно возрастает. На это указывает запуск алгоритма Penguin, да и государственные органы давят на поисковик с тем, чтобы он не помещал в индекс сайты, нарушающие законодательство.
По мнению Саймона Пенсона, имеется три варианта для борьбы с этим явлением. Для реализации каждого из них понадобится различный объем ресурсов и инвестиций.
1. Ручная проверка: Это самый простой и очевидный путь. Но проблема состоит в том, что тогда против Google будет выдвинуто обвинение в том, что он занимается редактированием результатов поиска (а он всячески старается избежать обвинений в этом по понятным причинам). На практике это требует ежедневной ручной проверки качества сайтов, попадающих в выдачу по определенным поисковым фразам, и анализа их ссылочного профиля, возраста домена, и других контрольных параметров, указывающих на возможность низкого качества ресурсов.
2. Проверка перенаправления 301: В некоторых случаях черное SEO ускользает от фильтров и быстро возвращается в поисковую выдачу за счет перенаправления с проштрафившихся доменов на новые. Сейчас этот метод позволяет обходить фильтры. Google может заставить своих пауков искать перенаправления при исследовании высокоранжируемых доменов и запустить исторический анализ или проверить, нет ли перенаправлений с доменов, находящихся под фильтрами.
3. Взглянуть еще раз на то, как пауки исследуют Web: Вероятно, существует разрыв, между тем, что «видит» каждый из типов пауков. Многие проблемы можно было бы решить, если бы Google сумел отыскать путь семантического извлечения данных и организовать их централизованное хранение. Тогда он будет быстро находить скрытые ссылки и немедленно наказывать сайт за использование черных приемов. Даже если наказание будет иметь форму отправки на ручную модерацию или установку «метки», домены, завоевавшие авторитет с помощью данного трюка, будут быстро обнаружены и проблема невидимых ссылок может быть решена буквально за ночь.
Если теория о том, что Chrome является пауком Google, верна, то решение лежит совсем рядом.
Остается еще проблем взломанных сайтов, а решить ее очень и очень сложно. Возможно, ручная проверка является единственным выходом?
Как сказал один опытный оптимизатор: «Пингвин снял черную шляпу со всякой мелочевки, позволив самым лучшим из черных стать еще богаче». Похоже, что это высказывание достаточно метко характеризует создавшуюся ситуацию. И только Google может изменить ее.
Источник: Search Engine Watch
Комментарии