Google использует множество алгоритмов для определения качества страниц, отображающихся в поисковой выдаче. Их называют фильтрами. Каждый из них может накладывать санкции за негативные с точки зрения поисковой системы факторы, присутствующие на странице и ресурсе в целом. Результатом попадания под действие фильтров станет понижение в поисковой выдаче по запросам, отправка в список дополнительного индекса, блокировка части или всего сайта.

Компания Google не публикует подробности о количестве и особенностях работы фильтров. Определить пребывание под действием одного из них помогут косвенные факторы – понижение в выдаче, падение трафика, отсутствие ранжирования.

Существуют общие рекомендации, предоставляющие возможность исключить риск попадания под фильтры:

  • регулярно обновлять ресурс;

  • обеспечить оптимальную скорость загрузки страниц;

  • публиковать релевантный, уникальный контент без переоптимизации (чрезмерного количества ключевых слов, переспама в мета-тегах);

  • избегать серых и черных методов продвижения;

  • аккуратно размещать ссылки на сайт во внешних источниках.

«Песочница»

Google отрицает существование этого фильтра. По мнению многих начинающих SEO-специалистов, его накладывают на все молодые сайты. В реальности под действие алгоритма «Песочница» (если он существует) попадают ресурсы, которые редко обновляются, не наращивают ссылочную массу извне и медленно развиваются. Определить данный факт поможет оценка выдачи по ВЧ, СЧ и НЧ. Если сайт не отображается в поисковой выдаче по высоко- и среднечастотным запросам, а низкочастотные запросы имеют минимальную эффективность – он в «Песочнице».

«Дополнительные результаты»

Поисковик имеет 2 списка индексации – основной и дополнительный. Доступ ко второму можно получить через прямое действие со стороны пользователя – нажатие на дополнительные результаты. Их редко просматривают.

Под действие этого фильтра попадают страницы, обладающие следующими признаками:

  • дублированный контент;

  • дублированный дизайн;

  • неуникальные тексты.

Выявить попавшие под дополнительную индексацию страницы помогут несколько шагов:

  • вбить в поиске «site:адрес сайта/&». Поисковик выдаст количество проиндексированных страниц;

  • смотрим число разрешенных для индексации страниц в robots.txt или любым другим способом;

  • сравниваем. Если первое число меньше – часть страниц в дополнительных результатах или забанено. Если больше – проблемы с множеством копий. Необходимо настроить редирект.

«-30»

За использование черных технологий привлечения трафика позиции в поисковой выдаче понижаются в среднем на 20-40 пунктов. Выявить наложение фильтра просто:

  • использовался клоакинг, дорвеи и прочие способы нечестной переадресации;

  • сайт потерял до 30 пунктов в поисковой выдаче.

«Панда»

Мощный алгоритм, наказывающий за неуникальный контент, плохую оптимизацию, переспам, перепродажу ссылок. Он существенно понижает позиции в поисковой выдаче и может полностью из нее исключить. Для алгоритма «Панда» характерна потеря трафика и наличие вышеуказанных нарушений.

«Пингвин»

Накладывает санкции за нерелевантные ссылки, неестественное наращивание ссылочной массы (скачки относительно стандартных показателей), покупку ссылок на нетематических площадках. Его поможет определить падение трафика и низкие позиции по поисковому запросу на фоне нарушений требований алгоритма.

Выйти из-под фильтров и вернуть позиции без существенных затрат достаточно проблематично. Важно уделять повышенное внимание качеству и способам продвижения ресурса.