Search Console, не повлияют на то, как Яндекса, так и других поисковых систем, которые сканируют сайт. Придется использовать инструменты для других поисковых систем в дополнение к настройке параметров в Search Console.
Файл robots. txt.
В файле robots. txt сообщается поисковым ботам, какие страницы или файлы не стоит сканировать.
Для этого используют директиву «Disallow». Она запрещает заходить на ненужные страницы.
Заметьте, если страница указана в robots. txt с директивой Disallow, это не значит, что страница не будет проиндексирована, и не попадёт в выдачу.
Это может произойти, потому что
· страница была проиндексирована ранее,
· на неё есть внутренние
· или внешние ссылки.
Инструкции robots. txt носят рекомендательный характер для поисковых ботов. Поэтому этот метод не гарантирует удаление дублей из списка ранжированных страниц.
Всегда тег rel = canonical гарантирует, что версия вашего сайта получит дополнительный кредит доверия как «оригинальный» фрагмент контента.
Дополнительные методы для работы с дублирующим контентом.
1. Если веб-мастер определяет, что каноническая версия домена – www.example.com/, то все внутренние ссылки должны идти по адресу
http: // www. example.com/example, а не http: // example.com/page
(обратите внимание на отсутствие www).
2. При копировании фрагмента контента убедитесь, что страница с копированной частью добавляет ссылку на исходный контент, а не вариант URL.
3. Чтобы добавить дополнительную защиту от копирования контента, уменьшающего SEO- вес для контента, разумно добавить ссылку на rel-canonical для ссылок на существующие страницы. Это канонический атрибут, указывающий на URL-адрес, на котором он уже включён, и это значит, что это препятствует воровству контента.
После того как устранили дублирующий контент необходимо проверить сайт ещё раз. Только так можно убедиться в эффективности проведённых действий.
Анализ сайта на дубли желательно проводить регулярно. Только так можно вовремя определить и устранить ошибки, чтобы поддерживать высокий рейтинг сайта.
Дополнительно читайте о дублях страниц в ФИЛЬТРЕ PANDA, в первой части книги «36 фильтров Google».
ИЗОБРАЖЕНИЯ
60 фактор. Уникальность изображения
На сайте изображения должны быть уникальными, также, как и тексты. Если картинка взята с другого сайта, то такие изображения не учитываются.
Даже если у вас интернет-магазин, который продаёт брендовые вещи, и на нем вы размещаете фотографии производителя, то для поисковиков – это не аргумент качества сайта, а фактор того, чтобы не учитывать это изображение.
Только уникальные изображения добавляют вес страницы.
61 фактор. Дубли изображения
Также, как и текст поисковик учитывает только на одной страницы, которую проиндексировал первой, так и изображение увеличивает вес только один раз.
Повороты, обрезание, зеркальные отражения, применение различных фильтров Google распознает. Так что такие манипуляции