Google використовує безліч алгоритмів для визначення якості сторінок, що відображаються в пошуковій видачі. Їх називають фільтрами. Кожен з них може накладати санкції за негативні, з точки зору пошукової системи, фактори, присутні на сторінці і ресурсі в цілому. Результатом потрапляння під дію фільтрів стане зниження в пошуковій видачі по запитах, відправка в список додаткового індексу, блокування частини або всього сайту.
Компанія Google не публікує подробиці про кількість і особливості роботи фільтрів. Визначити перебування під дією одного з них допоможуть непрямі чинники - зниження у видачі, падіння трафіку, відсутність ранжирування.
Існують загальні рекомендації, які дають змогу виключити ризик потрапляння під фільтри:
-
регулярно оновлювати ресурс;
- забезпечити оптимальну швидкість завантаження сторінок;
-
публікувати релевантний, унікальний контент без переоптімізаціі (надмірної кількості ключових слів, переспама в мета-тегах);
-
уникати сірих і чорних методів просування;
-
акуратно розміщувати посилання на сайт в зовнішніх джерелах.
«Пісочниця»
Google заперечує існування цього фільтру. На думку багатьох початківців SEO-фахівців, його накладають на всі молоді сайти. У реальності під дію алгоритму «Пісочниця» (якщо він існує) потрапляють ресурси, які рідко оновлюються, що не нарощують кількість посилань ззовні і повільно розвиваються. Визначити даний факт допоможе оцінка видачі по ВЧ, СЧ і НЧ. Якщо сайт не відображається в пошуковій видачі по високо- і середньочастотних запитах, а низькочастотні запити мають мінімальну ефективність - він в «Пісочниці».«Додаткові результати»
Пошуковик має 2 списки індексації - основний і додатковий. Доступ до другого можна отримати через пряму дію з боку користувача - натискання на додаткові результати. Їх рідко переглядають.
Під дію цього фільтра потрапляють сторінки, які мають такі ознаки:
-
дубльований контент;
-
дубльований дизайн;
-
неунікальні тексти.
Виявити сторінки, що потрапили під додаткову індексацію, допоможуть кілька кроків:
-
вбити в пошуку «site: адреса сайту / &». Пошуковик видасть кількість проіндексованих сторінок;
-
дивимося скільки разів ще можна для індексації сторінок в robots.txt або будь-яким іншим способом;
-
порівнюємо. Якщо перше число менше - частина сторінок в додаткових результатах або забанено. Якщо більше - проблеми з безліччю копій. Необхідно налаштувати редирект.
«-30»
За використання чорних технологій залучення трафіку позиції в пошуковій видачі знижуються в середньому на 20-40 пунктів. Виявити накладення фільтра просто:
-
використовувався клоакинг, дорвеи і інші способи нечесної переадресації;
-
сайт втратив до 30 пунктів в пошуковій видачі.
«Панда»
Потужний алгоритм, що карає за неунікальний контент, погану оптимізацію, Переспам, перепродаж посилань. Він істотно знижує позиції в пошуковій видачі і може повністю з неї виключити. Для алгоритму «Панда» характерна втрата трафіку і наявність вищевказаних порушень.«Пінгвін»
Накладає санкції за нерелевантні посилання, неприродне нарощування маси (скачки щодо стандартних показників), покупку посилань на нетематичних майданчиках. Його допоможе визначити падіння трафіку і низькі позиції по пошуковому запиту на тлі порушень вимог алгоритму.
Вийти з-під фільтрів і повернути позиції без істотних витрат досить проблематично. Важливо приділяти підвищену увагу якості і засобам просування ресурсу.