Нажмите "Enter", чтобы перейти к контенту

Гугл не будет учитывать правило noindex

Гугл не поддерживает noindex в robots
Noindex в robots.txt не учитывается Google

Гугл прекращает учитывать правило noindex, прописанное в robots.txt.

Noindex в robots.txt больше не работает для Гугл

Ориентировочно с 1 января текущего года поисковая система Google прекратит учитывать директиву noindex в Robots Exclusion Protocol. Теперь, даже если эта директива будет прописана вебмастером в файле robots.txt, Гугл её попросту проигнорирует.

В компании заявили, что решение принято в целях очищения веб-системы от нестандартных и неустановленных в специальном порядке кодов, в рамках приведения общих правил построения вебсайтов к единому стандарту. Это может быть следствием поражения W3С в продолжительном противостоянии с консорциумом производителей браузеров, одним из главных участников которого является как раз Google.

Как известно, директива noindex предписывает поисковым системам не учитывать представленный на странице или на всем сайте контент. Стоит сказать, что официальные представители Гугл и Яндекс давно указывали на то, что отрицательно относятся к попыткам скрывать содержимое сайтов и могут даже налагать санкции за злоупотребление правилом noindex на весь ресурс.

Как правильно скрыть содержимое с помощью noindex

Иногда вебмастеру просто необходимо скрыть контент, например, во время проведения серьезных работ на сайте или при создании дублированного текста. В таких случаях Google рекомендует вместо правила noindex в robots.txt использовать альтернативные методы:

  • Прописать директиву noindex в метатегах.
  • Указать директиву Disalow в файле robots.txt.
  • Использовать коды ответа сервера 404 и 410.
  • Удалить URL страницы в панели вебмастера Search Console.
  • Ограничить доступ к содержимому страницы с помощью логина и пароля.

Все прописанные действия запрещают индексировать указанные страницы, что постепенно приведет к их выпадению из поиска.

Ранее сообщалось, что Гугл стремится внести Robots Exclusion Protocol (инструментом которого является robots.txt) в разряд официального стандарта Интернета. Чтобы ускорить этот процесс, поисковый гигант сделал исходный код парсера файла роботс открытым для всех желающих, а также внес изменения в правила по robots.txt.

Будьте первым, кто оставит комментарий!

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

© 2019 InetTeh - Новости интернет-технологий | Все права защищены