Глоссарий ПФ

Noindex директива

Noindex — директива для поисковых роботов, запрещающая добавлять страницу в индекс. Применяется через мета-тег или HTTP-заголовок и гарантирует полное исключение документа из поиска Яндекса после переобхода.

Что такое noindex директива

Noindex — директива управления индексацией, предписывающая поисковому роботу не включать конкретную страницу в индекс поисковой системы. В отличие от запрета в robots.txt, который блокирует обход URL, noindex разрешает роботу посетить страницу, но требует исключить её из поискового индекса — в том числе удалить уже проиндексированный документ при следующем краулинге.

Директива реализуется двумя способами:

  • Мета-тег в разделе <head> страницы: <meta name="robots" content="noindex">
  • HTTP-заголовок X-Robots-Tag: noindex — применяется для нHTML-ресурсов (PDF, изображения) или когда нет доступа к разметке

Директива может комбинироваться с другими значениями атрибута content:

  • noindex, nofollow — страница не индексируется, ссылочный вес не передаётся
  • noindex, follow — страница не индексируется, но робот переходит по внутренним ссылкам (полезно для служебных разделов с навигацией)

Критически важное техническое различие: если страница заблокирована в robots.txt, робот не может прочитать noindex-мета-тег на ней. URL может остаться в индексе без сниппета. Noindex работает корректно только на страницах, доступных для обхода. Для Яндекса также существует специфичный тег <meta name="yandex" content="noindex">, который скрывает страницу только от Яндекс.Бота, не затрагивая другие поисковики.

После обнаружения директивы фактическое исключение страницы из индексации в Яндексе происходит в течение нескольких дней до нескольких недель — в зависимости от краулингового бюджета и частоты переобхода домена.

Как noindex учитывается в Яндексе

Яндекс.Бот обрабатывает директиву noindex при каждом обходе страницы. Статус исключённых страниц отображается в Яндекс.Вебмастере в разделе «Индексирование» → «Исключённые страницы» с причиной «Запрещено метатегом». Там же можно отслеживать динамику: сколько страниц добавлено в исключения и когда.

Сроки применения

  • Новая страница с noindex при первом обходе — в индекс не попадает
  • Ранее проиндексированная страница с добавленным noindex — исключается обычно за 7–21 день при нормальном краулинговом бюджете
  • Крупные сайты (от 10 000 страниц) — обход медленнее, исключение может занять до 4–6 недель

Влияние на ранжирование

Алгоритм ранжирования Яндекса оценивает качественный состав индексируемого пула страниц домена при формировании трастового профиля. Домены с высокой долей страниц с тонким контентом, техническими дублями и пустыми разделами в индексе получают пессимизацию — ориентировочно до 10–20% в конкурентных нишах. Это не официальная цифра, но практика показывает: зачистка балластных страниц через noindex стабильно улучшает позиции ядра через 4–8 недель после переиндексации.

Noindex и поведенческие факторы

Noindex-страницы не получают показов в SERP Яндекса, следовательно, не генерируют органических переходов. Это значит: они не участвуют напрямую в формировании поведенческих факторов для себя. Однако косвенно — через средние метрики домена — такие страницы в индексе тянут вниз общий CTR в Яндексе и средние показатели вовлечённости.

Яндекс vs Google

Яндекс строже соблюдает noindex применительно к сниппетам: Google в редких случаях может показать страницу без сниппета даже при наличии директивы (если на неё ссылаются внешние ресурсы). Яндекс в 2026 году полностью исключает noindex-страницы из выдачи после переобхода.

Как использовать noindex на практике

SEO-специалист применяет noindex для четырёх категорий страниц:

1. Технические и служебные страницы

  • Корзина, личный кабинет, страница оформления заказа
  • Страница благодарности после конверсии (/thank-you)
  • Подтверждение email, восстановление пароля
  • Страницы поиска по сайту (/search?q=...)

2. Дублированный контент

  • Страницы с UTM-параметрами (если не закрыты canonical)
  • Версии для печати
  • Архивные страницы пагинации (обычно начиная со второй)

3. Тонкий контент

  • Пустые категории каталога
  • Страницы тегов в блоге с 1–2 материалами
  • Страницы фасетной фильтрации с низкой уникальностью

4. Временные страницы

  • Тестовые лендинги, черновики промо-акций

Стратегия совмещения с robots.txt

Для массового закрытия (тысячи страниц фильтров) используйте robots.txt + Disallow. Noindex применяйте к небольшим группам «серых» страниц, которые нужно исключить без потери краулингового бюджета на их обход. Не блокируйте через robots.txt страницы, на которых стоит noindex — робот не сможет прочитать директиву.

Мониторинг

  • Яндекс.Вебмастер: «Индексирование» → «Страницы в поиске» — контролируйте динамику исключений
  • Яндекс.Метрика: отсутствие органического трафика на целевых URL подтверждает корректность директивы
  • Инструмент «Проверка robots» в Вебмастере — позволяет мгновенно проверить, как Яндекс интерпретирует мета-теги конкретной страницы

Почему noindex важен для поведенческих факторов

Noindex — один из ключевых инструментов управления качеством индекса, напрямую влияющего на поведенческий профиль домена.

Устранение источников негативных ПФ

Когда в индекс попадает страница с тонким контентом или дублем, пользователь переходит на неё из выдачи и немедленно возвращается обратно. Это регистрируется как Pogosticking и высокий Bounce Rate. Яндекс интерпретирует серию таких паттернов как сигнал нерелевантности и снижает позиции. Закрыв такие страницы через noindex, вы ликвидируете источник негативных сигналов у самого корня.

Концентрация ПФ-сигналов

Чем меньше страниц в индексе, тем выше «концентрация» поведенческих сигналов на оставшихся. Время на сайте и глубина просмотра по домену в целом улучшаются, если балластные страницы с нулевым вовлечением исключены.

Критично для работы с ПФ

При работе с накруткой ПФ через поведенческие сигналы целевая страница обязана быть открыта для индексации. Noindex-страница отсутствует в SERP Яндекса → нет показов → нет кликов → симуляция поведения невозможна. Перед запуском любой ПФ-кампании необходимо проверить отсутствие noindex на продвигаемых URL — это первичный технический аудит.

Влияние на loyalty-сигналы

Return rate и Loyalty signal формируются по всему домену. Пользователь, попавший на слабую проиндексированную страницу и не вернувшийся на сайт, снижает loyalty-профиль домена. Удаление таких страниц из индекса косвенно защищает репутационные сигналы бренда.

Переформулировка запроса как сигнал

Если пользователь после перехода на страницу возвращается в поиск и вводит новый запрос (переформулировка запроса), Яндекс фиксирует это как неудовлетворённую потребность. Массовое закрытие нерелевантных страниц снижает частоту этого паттерна по домену.

Связь с другими метриками и инструментами

Noindex является частью более широкой системы управления индексацией в Яндексе наряду с директивами robots.txt, атрибутом rel=canonical и настройками в Яндекс.Вебмастере. Canonical решает проблему дублей без полного исключения страниц из индекса — это альтернатива noindex для случаев, когда страницу нужно оставить доступной для перехода, но консолидировать ссылочный вес на основной URL.

С точки зрения аналитики, noindex-страницы продолжают получать прямой трафик по прямым ссылкам и из закладок — это важно учитывать при анализе источников в Яндекс.Метрике, чтобы не путать прямые переходы с органическими. Страницы, закрытые от индексации, но активно посещаемые напрямую, могут искажать картину поведенческих метрик, если не сегментировать отчёты по источнику трафика. Наконец, noindex взаимодействует с бренд-сигналом: закрытие от индексации страниц с упоминанием бренда снижает долю брендового трафика в органике, что может влиять на доверие алгоритма к домену.

Частые вопросы

Чем noindex отличается от Disallow в robots.txt?
Disallow в robots.txt запрещает роботу *посещать* URL, но не гарантирует исключение из индекса — страница может остаться в нём без сниппета, если на неё ссылаются другие сайты. Noindex разрешает обход, но требует не индексировать документ. Для полного исключения используют noindex; для экономии краулингового бюджета на тысячах страниц — Disallow. Не ставьте Disallow и noindex одновременно: робот не сможет прочитать мета-тег на заблокированной странице.
Как быстро Яндекс исключит страницу с noindex из индекса?
Обычно от 7 до 21 дня при нормальном краулинговом бюджете сайта. Для крупных проектов с редким переобходом — до 4–6 недель. Ускорить процесс можно через «Переобход страниц» в Яндекс.Вебмастере, отправив URL на переобход вручную.
Нужно ли ставить noindex на страницы пагинации?
Зависит от стратегии. Первая страница пагинации (/page/1) обычно открыта. Страницы 2+ часто закрывают через noindex или canonical на первую страницу раздела. Если страницы пагинации содержат уникальный контент (товары, которых нет на странице 1) — оставьте открытыми. Если это технические дубли — закрывайте.
Влияет ли noindex на передачу ссылочного веса?
Сама по себе директива noindex не блокирует передачу ссылочного веса — для этого нужен nofollow. `noindex, follow` позволяет роботу переходить по ссылкам на странице и учитывать их при формировании ссылочного графа, но при этом страница не индексируется. Если нужно закрыть и индексацию, и передачу веса — используйте `noindex, nofollow`.
Можно ли поставить noindex через robots.txt, а не мета-тег?
Нет. Robots.txt управляет только обходом (crawling), но не индексацией. Директива noindex реализуется исключительно через мета-тег <meta name="robots" content="noindex"> в HTML-коде страницы или через HTTP-заголовок X-Robots-Tag. Robots.txt не поддерживает инструкцию noindex.
Страница с noindex всё равно отображается в Яндексе — почему?
Возможные причины: робот ещё не переобходил страницу после добавления директивы (ждите 1–3 недели), страница заблокирована в robots.txt и робот не может прочитать мета-тег, или директива добавлена в JavaScript-код, который Яндекс.Бот не обработал. Проверьте корректность через инструмент «Проверка robots» в Яндекс.Вебмастере.