Фільтри Google. Як перевірити на фільтри? Google використовує безліч алгоритмів для визначення якості сторінок, що відображаються в пошуковій видачі. Їх називають фільтрами. Кожен з них може накладати санкції за негативні, з точки зору пошукової системи, фактори, присутні на сторінці і ресурсі в цілому. Результатом потрапляння під дію фільтрів стане зниження в пошуковій видачі по запитах, відправка в список додаткового індексу, блокування частини або всього сайту. Компанія Google не публікує подробиці про кількість і особливості роботи фільтрів. Визначити перебування під дією одного з них допоможуть непрямі чинники - зниження у видачі, падіння трафіку, відсутність ранжирування. Існують загальні рекомендації, які дають змогу виключити ризик потрапляння під фільтри: регулярно оновлювати ресурс; забезпечити оптимальну швидкість завантаження сторінок; публікувати релевантний, унікальний контент без переоптімізаціі (надмірної кількості ключових слів, переспама в мета-тегах); уникати сірих і чорних методів просування; акуратно розміщувати посилання на сайт в зовнішніх джерелах. «Пісочниця» Google заперечує існування цього фільтру. На думку багатьох початківців SEO-фахівців, його накладають на всі молоді сайти. У реальності під дію алгоритму «Пісочниця» (якщо він існує) потрапляють ресурси, які рідко оновлюються, що не нарощують кількість посилань ззовні і повільно розвиваються. Визначити даний факт допоможе оцінка видачі по ВЧ, СЧ і НЧ. Якщо сайт не відображається в пошуковій видачі по високо- і середньочастотних запитах, а низькочастотні запити мають мінімальну ефективність - він в «Пісочниці». «Додаткові результати» Пошуковик має 2 списки індексації - основний і додатковий. Доступ до другого можна отримати через пряму дію з боку користувача - натискання на додаткові результати. Їх рідко переглядають. Під дію цього фільтра потрапляють сторінки, які мають такі ознаки: дубльований контент; дубльований дизайн; неунікальні тексти. Виявити сторінки, що потрапили під додаткову індексацію, допоможуть кілька кроків: вбити в пошуку «site: адреса сайту / &». Пошуковик видасть кількість проіндексованих сторінок; дивимося скільки разів ще можна для індексації сторінок в robots.txt або будь-яким іншим способом; порівнюємо. Якщо перше число менше - частина сторінок в додаткових результатах або забанено. Якщо більше - проблеми з безліччю копій. Необхідно налаштувати редирект. «-30» За використання чорних технологій залучення трафіку позиції в пошуковій видачі знижуються в середньому на 20-40 пунктів. Виявити накладення фільтра просто: використовувався клоакинг, дорвеи і інші способи нечесної переадресації; сайт втратив до 30 пунктів в пошуковій видачі. «Панда» Потужний алгоритм, що карає за неунікальний контент, погану оптимізацію, Переспам, перепродаж посилань. Він істотно знижує позиції в пошуковій видачі і може повністю з неї виключити. Для алгоритму «Панда» характерна втрата трафіку і наявність вищевказаних порушень. «Пінгвін» Накладає санкції за нерелевантні посилання, неприродне нарощування маси (скачки щодо стандартних показників), покупку посилань на нетематичних майданчиках. Його допоможе визначити падіння трафіку і низькі позиції по пошуковому запиту на тлі порушень вимог алгоритму. Вийти з-під фільтрів і повернути позиції без істотних витрат досить проблематично. Важливо приділяти підвищену увагу якості і засобам просування ресурсу.