Полное или частичное дублирование страниц веб-ресурса может привести к целому ряду негативных последствий, которые будут снижать эффективность продвижения сайта в топ выдачи поисковых машин. В частности, наполнение сайта дублированным контентом может стать причиной понижения позиции сайта в рейтинге выдачи из-за того приобретаемая ссылочная масса будет вести на ресурс, находящийся вне индекса поисковика, а раскручиваемая страница и вовсе рискует оказаться выброшенной из индекса. Именно поэтому наполнение сайта должно осуществляться с использованием уникального контента, анологов которому нет в сети.
Дублирование контента на сайте или в блоге может быть результатом нескольких процессов. В частности, такое явление может быть вызвано созданием дублей контента системой управления сайта, RSS-лентами, служебными страницами, а также страницами для печати. Многие из перечисленных причин возникновения дублированного контента имеют объективный характер, поэтому находятся вне сферы воздействия веб-мастера. Однако, последний всё же может противостоять данному процессу и предотвратить возможное проявление его негативных последствий. В частности, проблему можно решить, запретив индексировать определённые страницы раскручиваемого ресурса.
Чтобы застраховать себя от нежелательного снижения эффективности продвижения сайта, целесообразно проверять весь размещаемый на его страницах текстовый контент на предмет уникальности. Для этих целей существует масса специальных программ, самыми популярными из которых являются бесплатные «eTXT Антиплагиат», «advego plagiatus» и «double content finder». Ещё один способ быстро проверить текстовое наполнение сайта на предмет наличия дублей – это веб-приложения. Поиск дублированного контента в режиме онлайн можно осуществить с использованием таких сервисов, как antipagiat.ru, copyscape.ru, istio.com, findcopy.ru и др.
Помощь в поиске дублей на сайте может оказать и сама поисковая система. Рассмотрим алгоритм действий на примере поисковой системы Яндекс. Для начала вписываем в строку «я ищу» название проверяемой страницы, затем при расширенном поиске указываем в поле «на сайте» название проверяемого ресурса и жмём «найти». После чего поисковая система выдаёт список страниц, в которых найдены совпадения. Если такое произошло, то лучше пересмотреть текстовое наполнение сайта, скорректировав или полностью заменив его. При этом каждый новый текст, перед размещением на сайте, должен быть предварительно проверен на плагиат, чтобы избежать повторного дублирования.
Если проверка текстового контента на уникальность показала, что некоторые страницы сайта содержат дубли, то необходимо незамедлительно удалить весь неуникальный контент. В тех случаях, когда удаление текста невозможно или нецелесообразно, можно просто закрыть соответствующую страницу от индексации. Для этого можно использовать мета-тег «robots», который прописывается в html-коде страницы и оповещает поисковую систему о возможности индексации страницы и следования по размещённым на ней ссылкам. Данный тег может обладать такими атрибутами, как none – ничего не индексировать, all — индексировать все, index — индексировать, noindex — не индексировать, nofollow – не учитывать ссылки.
Вторым способом скрыть неуникальный текстовый контент от всевидящего ока поисковых систем является «noindex» — специальный тег поисковой системы Яндекс. Этот тег позволяет не только скрывать отдельные страницы с дублированным контентом, но и избегать индексирования отдельных их частей, что очень удобно, поскольку не требует обязательной замены всего текстового наполнения сайта. При этом скрытые части текста учитываются поисковыми роботами, но индексации не подвергаются. Использование тега «noindex» позволяет обойтись без затратной и трудоёмкой процедуры замены неуникального текстового наполнения сайта.
UPDATE
Тег noindex более не работает. Оптимизируйте сайты иначе.
Поделиться записью