Дублирование контента внутри сайта может присутствовать в следующих элементах:
- Анонсы статей, рубрикаторы. Для их заполнения используют первые несколько предложений со страницы, на которую переводит ссылка;
- Название, описание категорий и подкатегорий в разделах с пагинацией . Наличие нескольких страниц, наполненных идентичным контентом, будет рассматриваться как спам;
- Одинаковые описания товаров. Актуально для магазинов, чей ассортимент состоит из тысяч позиций. Написание уникальных описаний для каждого товара потребует значительных временных и финансовых затрат;
- Генерируемые страницы с фильтрами, сортировкой. Они создаются на серверной стороне и передаются пользователю. Их адреса могут варьироваться, что спровоцирует появление внутренних дублей;
- Идентичный контент в разных подкатегориях. Например, один и тот же товар выводится в категории, к которой он относится, и списке по конкретному бренду;
- Отзывы. Повторы одинаковых текстов на разных страницах рассматриваются поисковыми машинами как спам. Результатом станет более медленная индексация и понижение позиций в поисковой выдаче.
Нельзя забывать о лени и невнимательности веб-мастера, осуществляющего наполнение сайта контентом. Его ошибки способны стать причиной негативных последствий для всего ресурса.

Почему дублирование контента – плохо
Существует ряд неприятностей, к которым может привести дублирование контента:
- ухудшение индексации. Поисковый робот затрачивает на сканирование сайта определенные ресурсы и время. Если он видит, что контент регулярно повторяется, индексация будет проводиться существенно дольше. В редких случаях она может прекратиться вовсе;
- наложение фильтров . Один из самых опасных для недобросовестных SEO-специалистов алгоритм «Panda» крайне негативно относится к дублированию контента. Многие сайты рискуют потерять позиции ранжирования или выпасть из поисковой выдачи. Попавшие под его действие ресурсы не смогли восстановиться. «Panda» учитывает посещаемость и поведение пользователей. Если дублированный контент находит аудиторию, последствия могут быть минимальными;
- снижение поведенческих факторов . Если на сайте присутствует несколько разных страниц, имеющих части одинакового контента, пользователь рискует совершить случайный переход по нерелевантной для него ссылке. Он разочаруется и покинет ресурс. Несколько сотен неудовлетворенных пользователей в короткие сроки существенно снизят поведенческие факторы.
Как найти дубли страниц
При создании сайта без CMS достаточно следить за наполнением ресурса, писать уникальные тексты анонсов и избегать дублирования. При управлении через движок необходимо убедиться, что дубли не создаются автоматически, периодически инициируя проверки.
Тех, кто занимается существующим длительное время сайтом, ждет кропотливая работа. Поиск дублей начинается с использования панели веб-мастера в предлагаемом поисковыми системами инструментарии. Здесь можно найти страницы с одинаковыми мета-описаниями.
Далее придется использовать строгий поиск по конкретным фразам. Это можно делать перед добавлением нового контента, чтобы избежать размещения дублированных текстов, описаний, изображений.

Специальные сайты, проверяющие уникальность текстов в Сети, могут выполнить ту же работу в пределах одного сайта. Гибкий функционал позволяет тонко настроить их работу. Важно помнить – неуникальным будет отображаться только проиндексированный контент. Поэтому не стоит загружать много текстов и изображений одновременно.
Что делать с дублями:
- контент можно переписать;
- на генерируемых страницах (при пагинации, в результатах фильтров и сортировок) поставить переходы на канонические линки и теги, которые запрещают индексацию и следование поисковым роботом. Мета-теги работают только в Яндексе. Гугл способен их проиндексировать.
Для сохранения позиций лучше размещать уникальный контент, периодически обновляя старые тексты. Выявить некачественный текст или наличие дублей поможет аудит контента сайта , который быстро и качественно может провести наша компания.