Что такое фильтрация результатов в Netpeak Spider, и чем она полезна
Мануалы
Фильтрация в Netpeak Spider — это функция, которая позволяет отфильтровать (неожиданно 😅) данные, полученные по результатам сканирования, от общей массы. В этом посте я расскажу подробнее о способах использования этой функции и поделюсь крутыми кейсами её использования.
1. Как применить фильтрацию
Если вы просканируете сайт в Netpeak Spider, перейдёте в отчёт по ошибкам и кликните на любую ошибку из списка → откроется таблица отфильтрованных результатов, в которой содержатся страницы с выбранной ошибкой. Это и есть та самая фильтрация.
Фильтровать можно и сразу по нескольким ошибкам → для этого выделите нужные ошибки с зажатой клавишей Ctrl, а затем нажмите на кнопку «Применить» в правом верхнем углу вкладки отчётов.
Фильтрация распространяется и на другие вкладки отчётов:
- Сводка:
- Структура сайта:
- Парсинг:
Отфильтровать данные также можно на Дашборде: верхние области и диаграммы кликабельны → если вы на них нажмёте, то также попадёте в таблицу «Отфильтрованные результаты».
Во всех этих случаях работают преднастроенные фильтры, которые позволяют получить отфильтрованные данные всего за один клик. Но в Netpeak Spider можно настроить и пользовательскую фильтрацию. Для этого:
- Откройте окно с условиями фильтрации → на вкладке «Отфильтрованные результаты» нажмите на кнопку «Настроить фильтр».
- Выберите нужные условия фильтрации, задайте логику, а затем нажмите на кнопку «OK».
Я, например, решила отфильтровать страницы, отдающие 200 OK, и размер контента которых превышает 5000 символов. Вот что из этого получилось:
Также в программе есть шаблоны фильтров:
- По умолчанию → сбрасывает все настройки фильтрации.
- Все ошибки → задаёт условия для фильтрации URL, которые содержат ошибки всех степеней критичности: высокая, средняя и низкая.
- SEO-совместимость → фильтрует индексируемые URL, которые могут попасть в выдачу.
Вы можете добавлять и свои шаблоны → настройте условия фильтрации, затем перейдите в меню «Сохранить» → «Сохранить как»:<
Назовите шаблон и нажмите на «OK» → после этого сохранённый шаблон появится в выпадающем меню.
Фильтрация результатов доступна в нашем тарифе Netpeak Spider Lite. Хотите получить доступ к этой и ещё 80+ фичам для анализа? Если вы не зарегистрированы у нас на сайте, тогда сделайте это прямо сейчас → после регистрации у вас будет возможность сразу же потестировать платные функции.
Ознакомьтесь с тарифами, оформляйте доступ к понравившемуся, и вперёд получать крутые инсайты!
2. Функция «Фильтровать по значению»
Эта функция фильтрует результаты на основе данных ячейки таблиц в:
- основном окне программы,
- модуле «База данных»,
- инструменте «Валидатор XML Sitemap».
Чтобы было понятнее, покажу на примере: в отчётах по изображениям в столбце ALT я обнаружила пустое значение и хочу отфильтровать все картинки, у которых тоже пустой альт. Затем:
- Я нажимаю правой кнопкой мыши на ячейку и в контекстном выбираю «Фильтровать по значению» → теперь в таблице находятся только картинки, которые не содержат атрибут alt.
- Чтобы вернуть всё как было, в верхней части окна нажмите на кнопку «Сбросить фильтр».
Тут так же, как и с обычной фильтрацией, можно выбирать сразу несколько значений в столбцах и одновременно применять к ним фильтрацию.
3. Как экспортировать отфильтрованные результаты
Чтобы выгрузить отфильтрованные URL, откройте вкладку «Отфильтрованные результаты» и нажмите на кнопку «Экспорт» в левом углу над таблицей.
Другой способ экспортировать данные → через меню «Экспорт» → «Результаты в текущей таблице»:
4. Кейсы применения фильтрации в Netpeak Spider
С помощью пользовательской фильтрации можно найти страницы, которые особенно нуждаются в дооптимизации и улучшении. Приведу несколько примеров.
Примечание: во всех случаях настройки фильтрации используется логика «И».
4.1. Страницы, у которых много входящих ссылок, но также много ошибок
Большое количество входящих ссылок на страницу — сигнал для поисковых систем о том, что страница важна для продвижения. Соответственно, такие страницы должны работать исправно и не содержать технических ошибок. Чтобы проверить, нет ли на сайте таких страниц, примените фильтр следующего типа к отсканированным URL:
Включить → Входящие ссылки ≥ 15 (Разумеется, для каждого сайта число будет разным, вы просто можете подставить среднее значение.)
Исключить → Код ответа сервера → Содержит : 200 OK
Включить → URL с ошибкой → Высокая критичность
Вы можете менять и добавлять свои условия фильтрации, я лишь привела в пример фильтр, который позволит отделить страницы с большим количеством входящих ссылок, не 200 OK кодом ответа сервера и с ошибками высокой критичности, от общей массы результатов.
4.2. Страницы, которые получают много веса, но закрыты от индексации
Тут почти такой же принцип, как и в предыдущем кейсе: первое условие — входящие ссылки, а вот второе — «Разрешён в robots.txt». Так как мы ищем страницы, закрытые от индексации, выбираем значение FALSE.
4.3. Страницы с маленьким объёмом трафика и большим уровнем вложенности
Уровень вложенности URL — это его положение относительно главной страницы. Вложенность измеряется в количестве кликов и обозначается цифрами. Оптимальный уровень вложенности — 3, поэтому важные для продвижения страницы должны находиться именно на такой глубине и не более.
С помощью фильтрации в Netpeak Spider вы можете находить страницы, которые получают мало трафика, и находятся далеко от главной. Для этого просканируйте сайт с учётом метрик из Google Analytics и Яндекс.Метрики, а затем примените фильтр:
Опять же, значения для каждого сайта будут отличаться, вы должны ориентироваться на свои показатели.
4.4. Страницы с маленьким объёмом трафика, у которых давно не обновлялся Last-Modified
Настройка заголовка Last-Modified позволяет указать поисковику, когда на страница были изменения. Если вы заметили, что какие-то страницы стали приносить мало трафика, посмотрите, как давно у них обновлялся заголовок Last-Modified. Для этого:
- Перед сканированием в Netpeak Spider зайдите в настройки сервисов аналитики и задайте нужный диапазон дат:
- Убедитесь, что в разделе параметров «Основные» активирован параметр «Last-Modified»,
- А также параметры сервисов аналитики:
После окончания сканирования настройте фильтр по такому принципу:
4.5. Страницы, которые заблокированные в robots.txt, но открыты в Meta Robots
Когда вы хотите закрыть страницы от индексации, убедитесь, что вы прописали инструкции не только в файле robots.txt, а также теге Meta Robots → важно, чтобы они не конфликтовали между собой.
4.6. Фильтр по парсингу: количество категорий товаров на странице
С помощью парсинга и фильтрации можно найти страницы с малым количеством контента. Например, если на странице категории меньше, чем пять (условно) товаров — над ними необходимо поработать и дополнить товарами, либо же закрыть от индексации.
Чтобы найти такие страницы, перед сканированием в настройках парсинга задайте необходимые условия:
Затем просканируйте сайт, и в настройках фильтра примените условия:
Это лишь примеры использования функции фильтрации в Netpeak Spider, вы можете настраивать самые разные фильтры — на что хватит фантазии 😄
Подводим итоги
Фильтрация в Netpeak Spider — гибкая функция, которая позволяет не только отсортировать данные от общих результатов, но и находить полезные инсайты и упущения, исправив которые, вы можете улучшить продвижение сайта.
А как вы используете функцию фильтрации? Может, у вас есть свои фишки и лайфхаки? Буду рада, если поделитесь в комментариях 😊