Что такое фильтрация результатов в Netpeak Spider, и чем она полезна

How to
3Like
Comments
Share
Что такое фильтрация результатов в Netpeak Spider, и чем она полезна

Фильтрация в Netpeak Spider — это функция, которая позволяет отфильтровать (неожиданно 😅) данные, полученные по результатам сканирования, от общей массы. В этом посте я расскажу подробнее о способах использования этой функции и поделюсь крутыми кейсами её использования.

1. Как применить фильтрацию

Если вы просканируете сайт в Netpeak Spider, перейдёте в отчёт по ошибкам и кликните на любую ошибку из списка → откроется таблица отфильтрованных результатов, в которой содержатся страницы с выбранной ошибкой. Это и есть та самая фильтрация.

Как отфильтровать результаты сканирования в Netpeak Spider

Фильтровать можно и сразу по нескольким ошибкам → для этого выделите нужные ошибки с зажатой клавишей Ctrl, а затем нажмите на кнопку «Применить» в правом верхнем углу вкладки отчётов.

Фильтрация по нескольким ошибкам в Netpeak Spider

Фильтрация распространяется и на другие вкладки отчётов:

  1. Сводка:

    Фильтрация в отчёте «Сводка» в Netpeak Spider

  2. Структура сайта:

    Фильтрация в отчёте «Структура сайта» в Netpeak Spider

  3. Парсинг:

    Фильтрация в отчёте «Парсинг» в Netpeak Spider

Отфильтровать данные также можно на Дашборде: верхние области и диаграммы кликабельны → если вы на них нажмёте, то также попадёте в таблицу «Отфильтрованные результаты».

Фильтрация данных на дашборде в Netpeak Spider

Во всех этих случаях работают преднастроенные фильтры, которые позволяют получить отфильтрованные данные всего за один клик. Но в Netpeak Spider можно настроить и пользовательскую фильтрацию. Для этого:

  1. Откройте окно с условиями фильтрации → на вкладке «Отфильтрованные результаты» нажмите на кнопку «Настроить фильтр».

    Настройка фильтра в Netpeak Spider

  2. Выберите нужные условия фильтрации, задайте логику, а затем нажмите на кнопку «OK».

Я, например, решила отфильтровать страницы, отдающие 200 OK, и размер контента которых превышает 5000 символов. Вот что из этого получилось:

Результаты фильтрации в Netpeak Spider

Также в программе есть шаблоны фильтров:

  1. По умолчанию → сбрасывает все настройки фильтрации.
  2. Все ошибки → задаёт условия для фильтрации URL, которые содержат ошибки всех степеней критичности: высокая, средняя и низкая.

    Фильтр «Все ошибки» в Netpeak Spider

  3. SEO-совместимость → фильтрует индексируемые URL, которые могут попасть в выдачу.

    Фильтр «SEO-совместимость» в Netpeak Spider

Вы можете добавлять и свои шаблоны → настройте условия фильтрации, затем перейдите в меню «Сохранить» → «Сохранить как»:<

Как сохранить шаблон фильтров в Netpeak Spider

Назовите шаблон и нажмите на «OK» → после этого сохранённый шаблон появится в выпадающем меню.

Фильтрация результатов доступна в нашем тарифе Netpeak Spider Lite. Хотите получить доступ к этой и ещё 80+ фичам для анализа? Если вы не зарегистрированы у нас на сайте, тогда сделайте это прямо сейчас → после регистрации у вас будет возможность сразу же потестировать платные функции.

Ознакомьтесь с тарифами, оформляйте доступ к понравившемуся, и вперёд получать крутые инсайты!

Ознакомиться с тарифами и подобрать для себя

2. Функция «Фильтровать по значению»

Эта функция фильтрует результаты на основе данных ячейки таблиц в:

  • основном окне программы,
  • модуле «База данных»,
  • инструменте «Валидатор XML Sitemap».

Чтобы было понятнее, покажу на примере: в отчётах по изображениям в столбце ALT я обнаружила пустое значение и хочу отфильтровать все картинки, у которых тоже пустой альт. Затем:

  1. Я нажимаю правой кнопкой мыши на ячейку и в контекстном выбираю «Фильтровать по значению» → теперь в таблице находятся только картинки, которые не содержат атрибут alt.

    Как отфильтровать результаты сканирования в таблице по значению в Netpeak Spider

  2. Чтобы вернуть всё как было, в верхней части окна нажмите на кнопку «Сбросить фильтр».

    Как сбросить фильтр в основной таблице Netpeak Spider


Тут так же, как и с обычной фильтрацией, можно выбирать сразу несколько значений в столбцах и одновременно применять к ним фильтрацию.

3. Как экспортировать отфильтрованные результаты

Чтобы выгрузить отфильтрованные URL, откройте вкладку «Отфильтрованные результаты» и нажмите на кнопку «Экспорт» в левом углу над таблицей.

Как экспортировать отфильтрованные результаты из Netpeak Spider

Другой способ экспортировать данные → через меню «Экспорт» → «Результаты в текущей таблице»:

Как экспортировать отфильтрованные результаты из Netpeak Spider

4. Кейсы применения фильтрации в Netpeak Spider

С помощью пользовательской фильтрации можно найти страницы, которые особенно нуждаются в дооптимизации и улучшении. Приведу несколько примеров.

Примечание: во всех случаях настройки фильтрации используется логика «И».

4.1. Страницы, у которых много входящих ссылок, но также много ошибок

Большое количество входящих ссылок на страницу — сигнал для поисковых систем о том, что страница важна для продвижения. Соответственно, такие страницы должны работать исправно и не содержать технических ошибок. Чтобы проверить, нет ли на сайте таких страниц, примените фильтр следующего типа к отсканированным URL:

Включить → Входящие ссылки ≥ 15 (Разумеется, для каждого сайта число будет разным, вы просто можете подставить среднее значение.)

Исключить → Код ответа сервера → Содержит : 200 OK

Включить → URL с ошибкой → Высокая критичность

Пример кастомного фильтра в Netpeak Spider

Вы можете менять и добавлять свои условия фильтрации, я лишь привела в пример фильтр, который позволит отделить страницы с большим количеством входящих ссылок, не 200 OK кодом ответа сервера и с ошибками высокой критичности, от общей массы результатов.

4.2. Страницы, которые получают много веса, но закрыты от индексации

Тут почти такой же принцип, как и в предыдущем кейсе: первое условие — входящие ссылки, а вот второе — «Разрешён в robots.txt». Так как мы ищем страницы, закрытые от индексации, выбираем значение FALSE.

Как отфильтровать страницы, которые  получают много веса, но закрыты от индексации, в Netpeak Spider

4.3. Страницы с маленьким объёмом трафика и большим уровнем вложенности

Уровень вложенности URL — это его положение относительно главной страницы. Вложенность измеряется в количестве кликов и обозначается цифрами. Оптимальный уровень вложенности — 3, поэтому важные для продвижения страницы должны находиться именно на такой глубине и не более.

С помощью фильтрации в Netpeak Spider вы можете находить страницы, которые получают мало трафика, и находятся далеко от главной. Для этого просканируйте сайт с учётом метрик из Google Analytics и Яндекс.Метрики, а затем примените фильтр:

Как отфильтровать страницы с маленьким объёмом трафика и большим уровнем вложенности в Netpeak Spider

Опять же, значения для каждого сайта будут отличаться, вы должны ориентироваться на свои показатели.

4.4. Страницы с маленьким объёмом трафика, у которых давно не обновлялся Last-Modified

Настройка заголовка Last-Modified позволяет указать поисковику, когда на страница были изменения. Если вы заметили, что какие-то страницы стали приносить мало трафика, посмотрите, как давно у них обновлялся заголовок Last-Modified. Для этого:

  1. Перед сканированием в Netpeak Spider зайдите в настройки сервисов аналитики и задайте нужный диапазон дат:

    Настройка «Google Analytic и Search Console» в Netpeak Spider

  2. Убедитесь, что в разделе параметров «Основные» активирован параметр «Last-Modified»,

    Параметр «Last-Modified» в Netpeak Spider

  3. А также параметры сервисов аналитики:

    Параметры сервисов аналитики в Netpeak Spider

После окончания сканирования настройте фильтр по такому принципу:

Как отфильтровать страницы с маленьким объёмом трафика, у которых давно не обновлялся Last-Modified в Netpeak Spider

4.5. Страницы, которые заблокированные в robots.txt, но открыты в Meta Robots

Когда вы хотите закрыть страницы от индексации, убедитесь, что вы прописали инструкции не только в файле robots.txt, а также теге Meta Robots → важно, чтобы они не конфликтовали между собой.

Как отфильтровать страницы, которые заблокированные в robots.txt, но открыты в Meta Robots в Netpeak Spider

4.6. Фильтр по парсингу: количество категорий товаров на странице

С помощью парсинга и фильтрации можно найти страницы с малым количеством контента. Например, если на странице категории меньше, чем пять (условно) товаров — над ними необходимо поработать и дополнить товарами, либо же закрыть от индексации.

Чтобы найти такие страницы, перед сканированием в настройках парсинга задайте необходимые условия:

Как задать условия парсинга в Netpeak Spider

Затем просканируйте сайт, и в настройках фильтра примените условия:

КФильтр по парсингу  в Netpeak Spider: количество категорий товаров на странице

Это лишь примеры использования функции фильтрации в Netpeak Spider, вы можете настраивать самые разные фильтры — на что хватит фантазии 😄

Подводим итоги

Фильтрация в Netpeak Spider — гибкая функция, которая позволяет не только отсортировать данные от общих результатов, но и находить полезные инсайты и упущения, исправив которые, вы можете улучшить продвижение сайта.

А как вы используете функцию фильтрации? Может, у вас есть свои фишки и лайфхаки? Буду рада, если поделитесь в комментариях 😊