Google использует множество алгоритмов для определения качества страниц, отображающихся в поисковой выдаче. Их называют фильтрами. Каждый из них может накладывать санкции за негативные с точки зрения поисковой системы факторы, присутствующие на странице и ресурсе в целом. Результатом попадания под действие фильтров станет понижение в поисковой выдаче по запросам, отправка в список дополнительного индекса, блокировка части или всего сайта.
Компания Google не публикует подробности о количестве и особенностях работы фильтров. Определить пребывание под действием одного из них помогут косвенные факторы – понижение в выдаче, падение трафика, отсутствие ранжирования.
Существуют общие рекомендации, предоставляющие возможность исключить риск попадания под фильтры:
-
регулярно обновлять ресурс;
-
обеспечить оптимальную скорость загрузки страниц;
-
публиковать релевантный, уникальный контент без переоптимизации (чрезмерного количества ключевых слов, переспама в мета-тегах);
-
избегать серых и черных методов продвижения;
-
аккуратно размещать ссылки на сайт во внешних источниках.
«Песочница»
Google отрицает существование этого фильтра. По мнению многих начинающих SEO-специалистов, его накладывают на все молодые сайты. В реальности под действие алгоритма «Песочница» (если он существует) попадают ресурсы, которые редко обновляются, не наращивают ссылочную массу извне и медленно развиваются. Определить данный факт поможет оценка выдачи по ВЧ, СЧ и НЧ. Если сайт не отображается в поисковой выдаче по высоко- и среднечастотным запросам, а низкочастотные запросы имеют минимальную эффективность – он в «Песочнице».
«Дополнительные результаты»
Поисковик имеет 2 списка индексации – основной и дополнительный. Доступ ко второму можно получить через прямое действие со стороны пользователя – нажатие на дополнительные результаты. Их редко просматривают.
Под действие этого фильтра попадают страницы, обладающие следующими признаками:
-
дублированный контент;
-
дублированный дизайн;
-
неуникальные тексты.
Выявить попавшие под дополнительную индексацию страницы помогут несколько шагов:
-
вбить в поиске «site:адрес сайта/&». Поисковик выдаст количество проиндексированных страниц;
-
смотрим число разрешенных для индексации страниц в robots.txt или любым другим способом;
-
сравниваем. Если первое число меньше – часть страниц в дополнительных результатах или забанено. Если больше – проблемы с множеством копий. Необходимо настроить редирект.
«-30»
За использование черных технологий привлечения трафика позиции в поисковой выдаче понижаются в среднем на 20-40 пунктов. Выявить наложение фильтра просто:
-
использовался клоакинг, дорвеи и прочие способы нечестной переадресации;
-
сайт потерял до 30 пунктов в поисковой выдаче.
«Панда»
Мощный алгоритм, наказывающий за неуникальный контент, плохую оптимизацию, переспам, перепродажу ссылок. Он существенно понижает позиции в поисковой выдаче и может полностью из нее исключить. Для алгоритма «Панда» характерна потеря трафика и наличие вышеуказанных нарушений.
«Пингвин»
Накладывает санкции за нерелевантные ссылки, неестественное наращивание ссылочной массы (скачки относительно стандартных показателей), покупку ссылок на нетематических площадках. Его поможет определить падение трафика и низкие позиции по поисковому запросу на фоне нарушений требований алгоритма.
Выйти из-под фильтров и вернуть позиции без существенных затрат достаточно проблематично. Важно уделять повышенное внимание качеству и способам продвижения ресурса.