Фільтри Google. Як перевірити на фільтри? SEO – Evolution SEO – Evolution

Фільтри Google. Як перевірити на фільтри?

google_1Google використовує безліч алгоритмів для визначення якості сторінок, що відображаються в пошуковій видачі. Їх називають фільтрами. Кожен з них може накладати санкції за негативні, з точки зору пошукової системи, фактори, присутні на сторінці і ресурсі в цілому. Результатом потрапляння під дію фільтрів стане зниження в пошуковій видачі по запитах, відправка в список додаткового індексу, блокування частини або всього сайту.

Компанія Google не публікує подробиці про кількість і особливості роботи фільтрів. Визначити перебування під дією одного з них допоможуть непрямі чинники - зниження у видачі, падіння трафіку, відсутність ранжирування.

Існують загальні рекомендації, які дають змогу виключити ризик потрапляння під фільтри:

  • регулярно оновлювати ресурс;

  • забезпечити оптимальну швидкість завантаження сторінок;
  • публікувати релевантний, унікальний контент без переоптімізаціі (надмірної кількості ключових слів, переспама в мета-тегах);

  • уникати сірих і чорних методів просування;

  • акуратно розміщувати посилання на сайт в зовнішніх джерелах.

«Пісочниця»

pesochnica Google заперечує існування цього фільтру. На думку багатьох початківців SEO-фахівців, його накладають на всі молоді сайти. У реальності під дію алгоритму «Пісочниця» (якщо він існує) потрапляють ресурси, які рідко оновлюються, що не нарощують кількість посилань ззовні і повільно розвиваються. Визначити даний факт допоможе оцінка видачі по ВЧ, СЧ і НЧ. Якщо сайт не відображається в пошуковій видачі по високо- і середньочастотних запитах, а низькочастотні запити мають мінімальну ефективність - він в «Пісочниці».

«Додаткові результати»

Пошуковик має 2 списки індексації - основний і додатковий. Доступ до другого можна отримати через пряму дію з боку користувача - натискання на додаткові результати. Їх рідко переглядають.

Під дію цього фільтра потрапляють сторінки, які мають такі ознаки:

  • дубльований контент;

  • дубльований дизайн;

  • неунікальні тексти.

Виявити сторінки, що потрапили під додаткову індексацію, допоможуть кілька кроків:

  • вбити в пошуку «site: адреса сайту / &». Пошуковик видасть кількість проіндексованих сторінок;

  • дивимося скільки разів ще можна для індексації сторінок в robots.txt або будь-яким іншим способом;

  • порівнюємо. Якщо перше число менше - частина сторінок в додаткових результатах або забанено. Якщо більше - проблеми з безліччю копій. Необхідно налаштувати редирект.

«-30»

За використання чорних технологій залучення трафіку позиції в пошуковій видачі знижуються в середньому на 20-40 пунктів. Виявити накладення фільтра просто:

  • використовувався клоакинг, дорвеи і інші способи нечесної переадресації;

  • сайт втратив до 30 пунктів в пошуковій видачі.

«Панда»

pandaПотужний алгоритм, що карає за неунікальний контент, погану оптимізацію, Переспам, перепродаж посилань. Він істотно знижує позиції в пошуковій видачі і може повністю з неї виключити. Для алгоритму «Панда» характерна втрата трафіку і наявність вищевказаних порушень.

«Пінгвін»

pingvinНакладає санкції за нерелевантні посилання, неприродне нарощування маси (скачки щодо стандартних показників), покупку посилань на нетематичних майданчиках. Його допоможе визначити падіння трафіку і низькі позиції по пошуковому запиту на тлі порушень вимог алгоритму.

Вийти з-під фільтрів і повернути позиції без істотних витрат досить проблематично. Важливо приділяти підвищену увагу якості і засобам просування ресурсу.

Поділитися в соц.сетях