5 задач PPC-специалистов, которые помогает решить Netpeak Spider
Кейсы
Netpeak Spider — инструмент, предназначенный в первую очередь для SEO-аудита, однако его функционал позволяет выполнять абсолютно разные задачи не только оптимизаторов, но и других специалистов. И сейчас я собираюсь вам это доказать 😃
В посте я собрала пять кейсов, в которых описала, как Netpeak Spider поможет PPC-специалистам упростить повседневные задачи.
- 1. Получение списка всех URL для определения потенциальных посадочных страниц на больших сайтах
- 2. Парсинг метаданных со страниц для быстрой генерации рекламных кампаний
- 3. Проверка кодов и времени ответа посадочных страниц в рекламных объявлениях и дополнительных ссылках
- 4. Мониторинг цен конкурентов для корректирования ставок
- 5. Сбор данных для фида динамического ремаркетинга
1. Получение списка всех URL для определения потенциальных посадочных страниц на больших сайтах
С помощью Netpeak Spider можно легко и быстро собрать полный список URL большого сайта. Для этого нужно:
- Открыть программу.
- В параметрах боковой панели включить только параметр «Код ответа сервера», так как кроме списка URL нас ничего не интересует, к тому же это ускорит сканирование.
- Вставить адрес сайта в поле «Начальный URL» и нажать на кнопку «Старт».
- Дождаться окончания сканирования.
- Открыть основную таблицу и нажать на кнопку «Экспорт», чтобы выгрузить все URL на компьютер в формате XLSX, CSV или Google Таблиц.
Или же открыть меню «Список URL» и выбрать пункт «Сохранить список URL в файл», чтобы экспортировать результаты в формате TXT.
Готово! Теперь у вас есть список всех страниц, которые можно анализировать, а также искать среди них лендинги для контекстной рекламы.
2. Парсинг необходимых данных со страниц для быстрой генерации рекламных кампаний
При создании заголовков для контекстной рекламы можно ориентироваться на метаданные страниц — как правило, они содержат всё необходимое для заголовка: ключевое слово и призывы к действию.
Чтобы собрать метаданные со страниц, проделайте в Netpeak Spider такие действия:
- Перед сканированием отметьте параметры «Title» и «Description» в разделе «Контент».
- Вставьте адрес сайта и запустите сканирование.
- По завершении выгрузите экспортируйте полученные результаты.
Полученные данные можно использовать при составлении объявлений. Я подготовила специальный шаблон, который поможет вам в этом.
3. Проверка кодов и времени ответа посадочных страниц в рекламных объявлениях и дополнительных ссылках
Все посадочные страницы должны отдавать нужный код ответа сервера — 200 OK, а скорость загрузки страниц соответствует норме (до 0,5 секунд). Проверять эти параметры очень легко в краулере, а особенно когда речь идёт о больших сайтах (более 100 000 URL) → так как с помощью скрипта проверки кодов ответа сервера Google Ads можно проверить не более 20 000 урлов за раз.
Чтобы начать проверку, действуйте согласно алгоритму:
- В параметрах отметьте чекбоксы «Код ответа сервера» и «Время ответа сервера».
- Вставьте список посадочных страниц → можно скопировать их из файла в буфер обмена (Ctrl+C) и вставить прямо в программу (Ctrl+V), а можно воспользоваться меню «Список URL» и сделать это другим удобным для вас способом.
- Начните сканирование.
- После окончания сканирования ознакомьтесь с данными в основной таблице, а также с отчётом по ошибкам → убедитесь, что на просканированных страницах не было найдено ошибок «Битые ссылки» и «Большое время ответа сервера».
Такую проверку стоит выполнять как перед, так и после запуска рекламных кампаний.
4. Мониторинг цен конкурентов для корректирования ставок
Отслеживание цен конкурентов поможет вам выгодно корректировать ваши ставки. К примеру, когда цена у конкурентов на товар больше вашей, есть смысл увеличить ставку для лендинга с этим товаром.
Чтобы собрать цены с сайтов, сделайте следующее:
- Перейдите на страницу товара и выделите его цену. Затем откройте исходный код страницы и скопируйте класс элемента.
Если сейчас вы мало что поняли, откройте наш пост «Как парсить различные данные из интернет-магазина с помощью Netpeak Spider» → в нём всё подробно описан алгоритм работы с парсингом.
- В Netpeak Spider перейдите в меню «Настройки»→ «Парсинг» и поместите скопированный элемент в ячейку, а в качестве типа поиска задайте «CSS-селектор».
- В параметрах отметьте «Код ответа сервера» и «Парсинг».
- Поставьте на сканирование сайт.
- По окончании ознакомьтесь с отчётм по парсингу → его вы найдёте на боковой панели.
Таким образом вы можете парсить цены с сайтов конкурентов, анализировать и сравнивать их, и на основе данных пересматривать свою ценовую политику.
Основные функции для выполнения кейсов, описанных в этом посте (сканирование, парсинг, проверка кодов ответа сервера), вы можете выполнять даже в бесплатной версии Netpeak Spider без ограничений по времени, в которой также доступно много других базовых фич программы.
Чтобы начать пользоваться бесплатным Netpeak Spider, просто зарегистрируйтесь, скачайте и установите программу — и вперёд! 😉
Зарегистрироваться и установить бесплатную версию
P.S. Сразу после регистрации у вас также будет возможность потестировать весь платный функционал, а затем сравнить все наши тарифы и выбрать для себя подходящий.5. Сбор данных для фида динамического ремаркетинга
Из тега ремаркетинга Ads можно вытягивать данные для каталога товаров и элементы для создания фида динамического ремаркетинга:
- ID (идентификатор);
- Price;
- Item Title (название);
- Item Description (описание);
- Final URL (ссылка);
- Image URL (ссылка на изображение).
О парсинге метаданных я рассказала Кейсе №2, этот метод подходит также для генерации фида.
Чтобы спарсить id и image_link, откройте карточку товара и в исходном коде найдите эти элементы. Для сбора идентификатора найдите в коде динамические параметры для тега ремаркетинга и скопируйте XPath тега script.

На вкладке настроек «Парсинг» в Netpeak Spider вставьте XPath и выберите тип извлечения данных «Внутренний HTML-код».
Чтобы спарсить image_link, также скопируйте его XPath.

В настройках необходимо задать «Извлечение данных» → «Значение атрибута». Название атрибута — «src» (содержит ссылку на картинку).
Просканируйте сайт, перенесите полученные данные в таблицу для дальнейшей работы.

В случае отсутствия тега ремаркетинга на сайте, собрать данные можно таким способом:
- Спарсить цены, но вместо ID будет артикул в карточке товара.
- Настроить тег ремаркетинга Ads → в этом вам поможет Google Tag Manager. Чтобы ID элемент в фиде совпадал с dynx_itemid на страницах карточек, нужно добавить артикул / код в dynx_itemid.
Подводим итоги
При запуске рекламных кампаний очень сложно собирать необходимые данные вручную, поэтому я советую автоматизировать этот процесс. В этом посте я описала, как с помощью краулера Netpeak Spider можно:
- собирать список страниц сайта для определения посадочных страниц;
- собирать содержимое метаданных для быстрого создания рекламные объявления;
- проверять коды ответа сервера и скорость загрузки страниц;
- мониторить цены конкурентов;
- получать данные для генерации товарных фидов.