ВходящиеВходящие
ВажныеВажные
ВидеоВидео
Категории
ОбновленияОбновления
МануалыМануалы
КейсыКейсы
ПодборкиПодборки
От экспертовОт экспертов
НовостиНовости
ТестыТесты
Входящие
Важные
Видео
Mark Martsun

Mark Martsun

Customer Support Specialist and the biggest fan of Scooter в Netpeak Software
Odessa, Ukraine
  • Комментарии (17)
  • Посты (2)
Сортировка:
Сортировка:
Максим Падун
1 октября 2018
а как правильно настроить анализ, чтобы выделить страницы, на которых присутствуют битые внутренние ссылки?
Здравствуйте, Максим!

Для того, чтобы увидеть какие страницы содержат битые ссылки, вам необходимо перейти в отчёт «Битые ссылки», а затем выбрать «Отчёт по ошибке» как это изображено на скриншоте: https://img.netpeaksoftware.com/mark/1M63TNO.png

Если у вас возникнут дополнительные вопросы — пишите, будем рады помочь!
2Нравится
Ответить
Поделиться
Скопировано
Павел Некрасов
10 октября 2018
Добрый день, просканировал сайт на битые ссылки. Но некоторые найденные битые ссылки ведут на нормально работающие страницы. В чем может быть причина?
Здравствуйте, Павел!

Причин, по которым может возникнуть подобная ситуация, несколько, самая распространённая — сервер отдаёт такой код ответа, если скорость сканирования высока, и он не справляется с нагрузкой. Для подтверждения нашего предположения нам необходимо знать, какой сайт вы сканируете, чтобы провести тесты.
Нравится
Ответить
Поделиться
Скопировано
Leonid Semenkevych
16 октября 2018
Как с помощью этой программы найти все ссылки на удаленные видео с Ютуба или заблокированные каналы?
Здравствуйте, Леонид!

Используя встроенный инструмент «Парсинг», вы можете находить ссылки на видео с YouTube на страницах сайта. Таким образом, если на определённых страницах сайта есть встраиваемые видео с YouTube, программа будет извлекать их ссылки в удобную таблицу. Вот пример условия, которое поможет извлечь ссылку на видео: https://img.netpeaksoftware.com/mark/1O9ZQ1Z.png

Затем, вы можете скопировать все полученные ссылки, вставить список в новый проект и парсить их исходный код на наличие уведомлений об ошибке. Если ссылок окажется немного, вы можете проверить их вручную.

Условия, желательно, настраивать индивидуально. Если вы пришлёте нам ссылку на сайт, то мы постараемся подобрать необходимые настройки для вашей цели.

Вы можете связаться с нами с помощью онлайн-чата на нашем сайте или написав на почту support@netpeaksoftware.com.
Нравится
Ответить
Поделиться
Скопировано
Oleg Metka
9 сентября 2018
Очень часто начал встречать блокирование IP из-за того чтоб много запросов отсылается при сканировании сайта. Менял скорость сканирования, но тогда большой сайт долго парсится.
Олег, это идеальный пример случая, когда необходимо воспользоваться списком прокси, который вы можете загрузить непосредственно в Netpeak Spider, таким образом вы гораздо быстрее просканируете сайт и снизите риск получения блокировки.

Если у вас возникнут дополнительные вопросы — пишите в поддержку, мы всегда рады помочь!
Нравится
Ответить
Поделиться
Скопировано
Andrey Abramov
4 ноября 2018
Скажите, почему закрытие 301 редиректа в robots.txt на внешний сайт является ошибкой?
Здравствуйте, Андрей!

Редирект, который блокируется инструкциями в файле robots.txt, для роботов поисковых систем не является правильным решением. Это связано с тем, что вы перенаправляете робота на закрытую для него страницу. Если страница важна, то её необходимо открыть.

Для более детального анализа проблемы нам необходимо знать ссылку на страницу с редиректом.

Вы можете связаться с поддержкой с помощью онлайн-чата или написать нам на email — support@netpeaksoftware.com.
Нравится
Ответить
Поделиться
Скопировано
Marina Sa
8 ноября 2018
Что-то я совсем не поняла как с помощью вашего Парсера ПС бэклинки смотреть...
Здравствуйте, Марина!

Поиск бэклинков в Netpeak Checker выполняется следующим образом → необходимо добавить поисковый запрос в соответствующее поле в инструменте «Парсер ПС», состоящий из двух частей:
1. URL сайта, для которого мы хотим найти бэклинки;
2. Тот же URL, но с использованием минус-оператора. Это необходимо для того, чтобы получить список ссылок, исключая из выдачи результаты по этому же сайту. Чтобы уточнить, что исключить нужно именно сайт, вы также можете добавить оператор site: в комбинации с минус-оператором так, как показано на скриншоте: 

https://img.netpeaksoftware.com/mark/1RKVUVK.png
1Нравится
Ответить
Поделиться
Скопировано
Vladislav Pracyuk
21 декабря 2018
Подскажите, а есть ли возможность сканировать лишь субдомен у сайта? Если в настройках выбрать сканирование без субдоменов и вбить корень субдомена, то программа сканирует лишь одну страницу. Я делаю что-то не так, или такой функции просто не предусмотренно?
Здравствуйте, Владислав!

Такая возможность есть, и вы всё сделали правильно. Чтобы разобраться в причине возникновения данной проблемы, нам необходимо знать URL поддомена.

Вы можете связаться со службой поддержки через чат или написав письмо на почту support@netpeaksoftware.com — будем рады помочь!
3Нравится
Ответить
Поделиться
Скопировано
Владимир Бородий
24 декабря 2018
Вопрос: в каком случае нужно снимать редиректы? или они должны работать постоянно? Спасибо
Здравствуйте, Владимир!

В определённых случаях редиректы должны быть постоянно, например, если редирект настроен с не главных зеркал на главное зеркало сайта.

Иногда настраивают и временный редирект. В таком случае — это лишь временное перенаправление на другой адрес, которое подразумевает возврат к старому варианту в неопределенном будущем (речь идёт о 302 редиректе).

Таких случаев можно привести довольно много, но если вас интересует какой-то конкретный — можете связаться с нами через чат, и мы с радостью проконсультируем вас по этому вопросу ;)
1Нравится
Ответить
Поделиться
Скопировано
Валентин Панарин
24 декабря 2018
Вопрос, если позволите ;) Меняю структуру сайта, товары переношу из раздела в раздел. Адрес, соответственно, меняется. Редиректы прописываю в одном известном модуле для Битрикса. Можно ли после обхода роботами ПС удалять редиректы? Если страница уже проиндексирована по новому адресу и участвует в поиске. По логике вещей ссылочный вес ей передался, в поиск попала, значит необходимости в сохранении редиректа нет?
Здравствуйте, Валентин!

В данном случае многое зависит от наличия внешних ссылок на страницы с редиректом. Если они есть и их много, то редирект убирать не стоит. В противном случае, это приведёт к автоматическому возникновению битых ссылок на всех внешних ресурсах, которые ссылаются на страницы по старому адресу.

Если же внешних ссылок нет, и был установлен временный редирект (302 или 307), то вы вполне можете его убрать, если посчитаете нужным.
1Нравится
Ответить
Поделиться
Скопировано
Oleh Trubitsyn
11 января 2019
Подскажите пожалуйста
Указываю в парсинге XPatch //div[@class='description']
Он парсит этот тег ровно до момента перевода строки, а мне надо весь тег, весь текст или внутренний html
Здравствуйте, Олег!

Вы пробовали парсить с помощью CSS-селектора? 
Например: CSS-селектор → .description → Весь HTML-элемент

Чтобы точно подобрать настройки парсинга данных, необходимо видеть исходный код страницы. Напишите нам, пожалуйста, в онлайн-чат или на почту support@netpeaksoftware.com — будем рады помочь :)
1Нравится
Ответить
Поделиться
Скопировано
aleks sv
20 сентября 2019
В отчете программы есть пункт одинаковые канонические адреса,что это значит?
Это означает, что несколько страниц содержат ссылку на одну и ту же каноническую страницу. Необходимо убедиться, что одинаковый канонический URL задан для похожих по контенту страниц и релевантен им по содержанию.

Также отмечу, что это отчёт низкой критичности, т.е. его не нужно рассматривать как ошибку, а скорее как уведомление.
Нравится
Ответить
Поделиться
Скопировано
Михаил Иванищенко
27 сентября 2019
Отличный мануал по парсингу данных с помощью Netpeak Spider, спасибо за материал!
Большое спасибо, Михаил! Рад, что вам понравилась статья ;)
3Нравится
Ответить
Поделиться
Скопировано
Ivan Kutas
1 октября 2019
Марк, пост просто бомба! Ты крут!
Большое спасибо! Стараюсь :)
2Нравится
Ответить
Поделиться
Скопировано
Вячеслав Тепляков
15 октября 2019
Каждому инструменту своё назначение. parsehub делает это без всех этих танцев с бубном и ковыряния в коде страниц, с настройкой через интуитивно понятном пошаговом интерфейсе... С обходом каждой карточки товара, если это нужно и обходом страниц и при этом условно бесплатно.
Вы правы, программа ParseHub специализируется именно под эту задачу. Поэтому неудивительно, что там много разных инструментов, которые делают практически всю работу автоматически.

В Netpeak Spider парсинг — одна из многочисленных функций, которая
предоставляет возможность извлекать различные данные в процессе аудита сайта. Это удобно, так как парсинг может применяться и для SEO-задач. 

Мы сделали так, чтобы пользователям было удобно проводить аудит, парсить данные и решать многие другие задачи в одной программе — Netpeak Spider :)
1Нравится
Ответить
Поделиться
Скопировано
Все привет. Спасибо за крутой продукт. На моём сайте https://www.magazin-futbolok.su 
Много висяков. И вообще понимаю, что с перелинковкой что-то не так. Например, наверное, надо поставить в nofollow ссылки с главной на товары из карусели. Но не очень понимаю технически как это сделать. И поставить в nofollow, например ссылку меню "поиск". Могли бы Вы дать несколько ключевых рекомендаций именно для моего сайта? Спасибо.
Здравствуйте, Андрей!

Просканировал ваш сайт и нашёл всего 5 висячих узлов, что немного. Более того, 4 из них являются битыми ссылками. Рекомендую запускать анализ PageRank только после полного сканирования сайта, чтобы программа смогла обнаружить все ссылки и рассчитать значения PR корректно :)
Нравится
Ответить
Поделиться
Скопировано
Спасибо. Вот как раз вопрос - может есть какие то настройки, учитывающие роботс или еще что-то... у меня ощущение, что программа сканирует url которые закрыты от индексации. По крайней мере многие стрнаицы типа таких у меня вызывают недоумение
https://www.magazin-futbolok.su/korzina/add.html?category_id=1&product_id=715
как раз они и есть висячие.
но откуда то их программа достаёт
Да, разумеется. По умолчанию, Netpeak Spider игнорирует инструкции по индексации, кроме тега Canonical. Изменить эти настройки вы можете на вкладке «Продвинутые».
Нравится
Ответить
Поделиться
Скопировано
Виталий Минский
29 октября 2019
Как сейчас лучше всего закрыть внешнюю ссылку? 
Есть много партнерских ссылок на сайте, порой больше 100 на одной странице. Размечать их новыми атрибутами от гугла? Или вообще скрыть?
Здравствуйте, Виталий! Для таких ссылок рекомендуется использовать новый атрибут rel=sponsored.
Нравится
Ответить
Поделиться
Скопировано