Решили заняться оптимизацией своего сайта, но не знаете, с чего начать — начните с Академии Netpeak Software!
Подробнее
Категории
Alex Wise

Alex Wise

CEO & Founder в Netpeak Software
  • Комментарии (53)
  • Посты (16)
Сортировка:
Сортировка:
Netpeak Checker 3.0: парсинг выдачи поисковых систем
Обновления
Netpeak Spider 3.0: обзор улучшений
ВидеоОбновления
Netpeak Spider 3.0: новая SEO-надежда
Обновления
Новый блог Netpeak Software
Обновления
Netpeak Spider 2.1.3: Обзор улучшений
Обновления
Netpeak Checker 2.1.1: On-Page параметры
Обновления
Netpeak Checker 2.1: Абсолютно новая версия программы
Обновления
Новый личный кабинет и изменения в покупке продуктов
Обновления
Netpeak Spider 2.1.1.4: Пользовательский поиск и извлечение данных
Обновления
Netpeak Spider 2.1.1.3: Генерация Sitemap
Обновления
Netpeak Spider 2.1.1.2: Расчёт внутреннего PageRank
Обновления
Netpeak Spider 2.1.1.1: Глобальное изменение алгоритма сканирования
Обновления
Dmitriy Morozov
2 сентября 2016
Удивили! Только думал написать предложение о сканировании внешних ссылок)

Спасибо
А мы заведомо знаем, чего вы хотите! :)
Нравится
Ответить
Поделиться
Aleksandr Bondarenko
4 сентября 2016
Круто, что можно копировать новую панельку (Сводку). Можно на скорую руку отчёт сварганить! ;)
Пока что из двух панелей справа ("Ошибки" и "Сводка") можно только копировать, но у нас уже в планах есть внедрить полноценную выгрузку отчётов, которая поможет и быстрее поставить задачу на исправление разработчику и объяснить состояние сайта клиенту.

Следите за обновлениями! :)
Нравится
Ответить
Поделиться
Максим Соболев
19 октября 2016
Очень информативно! Когда же ожидать PageRank?;)
Спасибо!) Полностью новый расчёт внутреннего PageRank будет уже в следующем релизе.) А он выйдет очень скоро!
Нравится
Ответить
Поделиться
Андрей Крючков
8 ноября 2016
Где то слышал, что поисковые машины стараются не учитывать при расчёте внутреннего ПР по сайту сквозные ссылки, например в меню. Возможно ли в вашей программе отключить учёт сквозных ссылок?
Андрей, спасибо, что написали!) 

В Netpeak Spider нет возможности отключить учёт сквозных ссылок, так как эта информация является крайне неподтверждённой. В новой версии мы стараемся внедрять только то, в чём уверены и не вводить в заблуждение наших пользователей.

Текущая версия расчёта внутреннего PageRank учитывает беcчисленное количество нюансов и, даже без учёта сквозных ссылок, может очень круто помочь с оптимизацией ваших проектов.

P.s. если вы убеждены, что влияние сквозных ссылок необходимо учитывать и сможете привести информацию, которая сможет развеять все сомнения, то мы всегда будем рады помочь вам и поработать в этом направлении!
Нравится
Ответить
Поделиться
Очень-очень круто!
Спасибо за отзыв!) Пользуйтесь и пишите, как вам!
Нравится
Ответить
Поделиться
Ololo Lololo
8 ноября 2016
Спасибо! Вы крутые))
Спасибо за приятные слова!)
Нравится
Ответить
Поделиться
Api Phito
8 ноября 2016
Может вы еще напишете рекомендации о том, что делать для достижения идеального варианта благодаря полученной информации из Netpeak Spider? :)
Как можно манипулировать передачей весов внутри сайта?
Скоро будет отдельный пост, посвящённый тому, как именно использовать фишки Netpeak Spider на практике :) 

А пока лишь могу кратко сказать: избавьтесь от всех «висячих узлов» и перераспределите вес с неважных страниц на важные путём самой обычной простановки атрибута rel nofollow на ссылки. Ссылки с таким атрибутом не передают PageRank и позволяют аккумулировать ссылочный вес на нужных страницах, если вы правильно организуете внутреннюю перелинковку.
Нравится
Ответить
Поделиться
Vladimir Maltsev
8 ноября 2016
Скажите, а вы смотрите за функционалом своего прямого конкурента - screaming frog'ом? Мои коллеги из-за рубежа пользуются только им и почему-то отказываются переходить на ваш софт.
А что это за программа?

Если серьёзно, то, разумеется, смотрим: как же мы можем не смотреть? Просто между нами есть небольшая разница → нам 4 месяца, а им 7 лет. Потому мы не всё сразу можем внедрить и сразу их обогнать. Хотя такие планы, определённо имеются, ибо наша цель → сделать самый крутой в мире десктопный SEO-краулер. И мы понемногу к этой цели идём... бежим, я бы даже сказал!
Нравится
Ответить
Поделиться
Api Phito
8 ноября 2016
Спасибо за ответ. Буду с нетерпением ждать пост.
Я многократно встречал информацию о том, что rel=nofollow передает вес, но он не доходит до страницы-донора. Якобы лучше вообще скрывать не нужные ссылки скриптами. Очень потому хочется узнать мнение экспертов в этом вопросе.
Вот главное мнение экспертов, на которое можно положиться → https://support.google.com/webmasters/answer/96569?hl=ru

Специально для вас:
http://img.netpeaksoftware.com/wise/UBKSDI.png
Нравится
Ответить
Поделиться
Vladimir Maltsev
8 ноября 2016
Позволю заметить, что либо я не понял Вашу мысль, либо Вы не совсем верно понимаете работу nofollow ссылок. Давно еще Гугл изменил поведение 
https://devaka.ru/articles/nofollow-and-noindex-now 
http://searchengineland.com/google-loses-backwards-compatibility-on-paid-link-blocking-pagerank-sculpting-20408
и поэтому совет про простановке nofollow к ссылкам - несколько сомнительная затея)
Владимир, несколько заметок:
1. Я привёл ссылку на рекомендации Google и склонен больше верить именно их интерпретации своих же алгоритмов.

2. Атрибут rel nofollow используется именно для того, чтобы не позволять перейти по ссылке → только столкнувшись с теми же проблемами, с которыми сталкивался в своё время Google, мы поняли, как именно происходит расчёт. Грубо говоря, только когда начинаешь думать, как Google (или другая поисковая система) и при определённой технической подкованности можно понять некоторые инсайты, о которых другие могут только выдвигать гипотезы, ну, или же, как вы приводите ссылку, делать эксперименты, которые со временем, разумеется, теряют свою актуальность.

В итоге, мы влезли в шкуру поисковых систем и на основании множества лет опыта и смекалки сделали данный алгоритм, с которым можно и нужно спорить, но только аргументированно: желательно с заявлениями разработчиков поисковых систем.
Нравится
Ответить
Поделиться
Eugene Tryshkin
8 ноября 2016
У меня показывает 
Код ответа сервера200 OK & DisallowedХотя я проверял урл в валидаторе яндекса и гугла, этот урл доступен для индексации и страница находится в поиске
Eugene, было бы замечательно, если бы вы сообщили, какую именно страницу вы сканируете → таким образом мы смогли бы скорее и полно ответить на ваш вопрос :)
Нравится
Ответить
Поделиться
Eugene Tryshkin
8 ноября 2016
У меня 3 правила, для яндекса, гугла и * (остальных). В остальных (*) это правило не прописано, и урл закрыт. Но почему тогда нетпик не пользуется инструкциями роботс в соответствии с юзер агент а использует *, зачем эта опция?
Сделайте пожалуйста чтобы он показывал каким именно правилом роботс закрыт урл и сделайте пожалуйста возможность ручной загрузки роботс txt. Спасибо
1. Netpeak Spider по умолчанию использует UserAgent для учёта инструкций: robots.txt, X-Robots-Tag и Meta Robots. Если вы заметили, что где-то он это не делает, то, пожалуйста, дайте нам входные данные:

– URL, который вы сканируете;
– UserAgent, которого используете.

2. Насчёт двух ваших предложений обязательно подумаем!
Нравится
Ответить
Поделиться
Anton Reva
9 ноября 2016
1. Так у вас же было в предыдущей версии отключение сквозных ссылок

2. это конечно нужно сделать, так как важно рассчитывать вес которые передается по уникальным ссылкам из контента и из различных динамических блоков.
а так получается, что сквозные ссылки будут давать перегибы.

П.С. Разберитесь с авторизацией:
я написал коммент, но хорошо что додумался сохранить его в буфер перед нажатием на Reply, 
так как когда я нажал на реплай, меня перекинуло на форму авторизации, потом обратно, НО ... мой коммент пропал ((.
второй раз было бы лень уже писать.
1. Да, в предыдущей версии было отключение, но вы уверены, что хотите верить в какое-то "эфимерное отключение сквозных ссылок" по алгоритму, который нельзя назвать самым изящным? Мы считали сквозными ссылками те ссылки, которые встречаются на более чем 50% всех страниц. Вы считаете, что поисковые системы так же "чётко" делают? :)

2. Насчёт авторизации и копирования коммента → скоро будем использовать другую систему и вообще запустим свой блог, где таких проблем уже быть не должно. Пока что сами мучаемся, так как система "Community", в которой мы переписываемся, не является нашей разработкой. Спасибо, что сообщили!
Нравится
Ответить
Поделиться
Степан Ермаков
8 ноября 2016
распределение веса еще влияет для информационных сайтов? Есть ли кейсы/исследования?
1. Распределение ссылочного веса влияет для всех сайтов без исключения. Это вроде как логично!) 
2. Кейсов и исследований по результатам работы нашей программы пока что нет. Мы только запустили данную функцию, которая уже поможет работать со ссылочным весов внутри сайта, потому такие кейсы должны будут появляться со временем.
Нравится
Ответить
Поделиться
Vladimir Maltsev
8 ноября 2016
Позволю заметить, что либо я не понял Вашу мысль, либо Вы не совсем верно понимаете работу nofollow ссылок. Давно еще Гугл изменил поведение 
https://devaka.ru/articles/nofollow-and-noindex-now 
http://searchengineland.com/google-loses-backwards-compatibility-on-paid-link-blocking-pagerank-sculpting-20408
и поэтому совет про простановке nofollow к ссылкам - несколько сомнительная затея)
Владимир, в итоге вынужден признать, что вы были полностью правы. Всё-таки рекомендации Google (как обычно) можно и нужно воспринимать не как полный ответ на вопрос (так как они действительно не передают PageRank). Однако подробно было описано, что с донора он «уходит», а акцептор не получает только после того, как оптимизаторы начали «управлять» весом с помощью атрибута rel nofollow.

Так что остаётся только один вариант «управлять» ссылочным весом → не ставить ссылки вовсе. Ну и тут нужно не перемудрить, потому что, если убрать со всех страниц ссылку на "Контакты" → это может неплохо ударить по бизнес-показателям :(

В итоге, в следующем релизе мы сделаем несколько доработок алгоритма, чтобы более чётко учитывать атрибут rel nofollow → сейчас же ссылки с таким атрибутом просто игнорируются.

Спасибо!)
Нравится
Ответить
Поделиться
Anton Reva
9 ноября 2016
1. да, точно уверен, 
мне нужно понимать, что я правильно переливаю вес с контентной части сайта тоже.

2. ок.
1. Хорошо. Подумаем, как это можно сделать более логично, чем присутствие на 50% страниц всего сайта.
Нравится
Ответить
Поделиться
Vasya Vasin
9 ноября 2016
Как исправить "Висячий узел" с jpg, pdf ?
Спасибо за вопрос! 
1. С изображениями типа jpg, png всё просто → рекомендуется их встраивать в страницы, а не давать на них прямые ссылки. А встроенное изображение уже показывать разными удобными для пользователей способами. Просто стараться избегать конструкции a href="IMAGE URL". 
При этом должна быть карта сайта изображений (Image Sitemap), где будут перечислены все страницы и картинки, которые на них есть. 
2. С другими форматами файлов типа pdf, doc, xls всё несколько сложнее → по сути, их также можно встраивать (не забывайте про возможности Google Docs) и размещать в карте сайта, чтобы поисковые системы их смогли проиндексировать. Однако сами поисковые системы умеют индексировать эти файлы как обычные HTML-файлы, а это значит, что, если внутри PDF-файла есть ссылка, например, на главную страницу вашего сайта, значит это уже не висячий узел, а обычная страница. К сожалению, Netpeak Spider пока что не индексирует полноценно файлы с форматом не-HTML. 
Возможно, чтобы не путать вас, мы уберём из алгоритма расчёта внутреннего PageRank другие форматы файлов, ссылки в которых мы ещё не умеем парсить. Спасибо, что навели на правильные мысли!)
Нравится
Ответить
Поделиться
Vasya Vasin
10 ноября 2016
Извиняюсь, только сейчас озадачился, а что означает встраивать в страницы? Если использовать src или href это уже как я понял будет висячий узел? Разжуйте пожалуйста недалекому.
Всё очень просто: под встраиванием в страницы я имею в виду использование img src="IMAGE URL". В этом случае при любом режиме сканирования в Netpeak Spider мы не будем считать изображение «висячим узлом».

Если же вы используете конструкцию a href="IMAGE URL", вот тогда это становится настоящим «висячим узлом», так как это прямая ссылка на какой-то узел, на котором нет исходящих ссылок, т.е. вес дальше не передаётся.

Я ответил на ваш вопрос? Не стесняйтесь спрашивать ещё → если я смогу помочь, обязательно это сделаю! :)
Нравится
Ответить
Поделиться
Vasya Vasin
11 ноября 2016
А если я делаю превью 100х100 вместо оригинала 2500х1300 (грубо говоря) который идет по href для оптимизации веса страницы и скорости загрузки? Тут как выкрутится?)
Разве что с помощью JS выводить просмотр увеличенного файла на текущей странице, который уже будет обращаться к «большой версии» файла, однако в исходном коде её не будет.
Нравится
Ответить
Поделиться
Alex Krivoshein
14 ноября 2016
А будет ли внедрена выгрузка карты сайта в xml и html форматах? если да то в каком временном интервале это планируется?
Да, 100% будет. Мы планировали выпустить релиз с генерацией XML и HTML-карт сайта уже на этой неделе, но вынуждены его задержать примерно на 2 недели. Так что уже совсем скоро ждите новую фичу!
Нравится
Ответить
Поделиться
ДОБРЫЙ ВЕЧЕР! МОЖЕТ ЗНАЕТЕ КАК В NextGEN УБРАТЬ ПРЯМУЮ ССЫЛКУ НА ФОТО? ВСЕ ФОТО С ПРЯМОЙ ССЫЛКОЙ. ПРОГРАММА ВЫДАЕТ КУЧУ ОШИБОК "ВИСЯЧИЙ УЗЕЛ". NextGEN ЭТО ПЛАГИН ДЛЯ ВОРДПРЕСС.
Дмитрий, здравствуйте!

Само понятие "Висячего узла" – это критическая ошибка, но если висячим узлом является картинка, то советую вам уделить время другим критическим и важным ошибкам. А когда они все будут исправлены, вот тогда уже можно будет задуматься о том, как убрать прямые ссылки на картинки. 

Главное – понимать, что исправление одной этой проблемы не принесёт моментально огромнейший результат в плане увеличения трафика / продаж и т.д. Однако, если все остальные моменты во внутренней оптимизации исправлены и отлажены, тогда можно задуматься об исправлении данной проблемы.

Насчёт плагина Photo Gallery не могу точно ответить, но уверен, что в исходном коде не должно остаться самой конструкции:
<a href="IMAGE URL"></a>
Нравится
Ответить
Поделиться
Andrew Kryuchkov
7 декабря 2016
Большое спасибо, просил об этом на серче, но не ожидал, что так быстро!
Спасибо за приятные слова :) Мы стараемся для вас!
Нравится
Ответить
Поделиться
Vladimir Maltsev
7 декабря 2016
ммм. не совсем понятен инструмент в плане эффективности использования. Получается каждый раз при добавлении новой страницы, необходимо заново вручную генерировать карту. Зачем?)
Владимир, спасибо за комментарий: основная проблема в том, что вы пишите – это как раз сделать автоматизацию генерации Sitemap "без усилий". 

Я думаю, что вы знаете и понимаете, что не каждый проект может позволить себе сделать автогенерацию всех карт сайта: XML, Image, HTML. Где-то проблема в недостаточных знаниях разработчика, где-то непонимание владельца сайта, чем автогенерация может быть выгодна (а именно владелец сайта должен заплатить разработчику за эту доработку) и т.д.

Таким образом, перед нами встала задача: а как сделать так, чтобы не нужно было в принципе просить разработчика что-либо делать (ну кроме как загрузить файл на сервер – это не должно быть затратно по времени)?

И, вуаля, наш новый инструмент, который покрывает весь цикл работ по Sitemap: сканирует сайт, генерирует нужные файлы, проверяет эти файлы на ошибки и даже отправляет в поисковые системы. И, что очень важно, инструмент помогает улучшить индексацию сайта (в принципе, зачем и нужны файлы Sitemap).

Я полностью с вами согласен, что автогенерация Sitemap, грубо говоря, раз в сутки – это системное и лучшее решение, что можно придумать, однако только используя такие программы как Netpeak Spider, можно быть уверенным, что:
– сгенерируется именно то, что вы выбрали – есть множество удобных настроек (которые отдельный разработчик сайта долго бы внедрял);
– формат файлов Sitemap будет правильным и соответствовать стандартам – мы за этим следим;
– вы всегда сможете исключить некоторые разделы сайта из генерации – всё это с помощью правил сканирования или фильтров после завершения сканирования.
Нравится
Ответить
Поделиться
Я проверил. Включаешь атрибут HREF (как я написал выше), программа Netpeak Spider выдает "висячий узел", отключаешь - все чисто. Такая настройка есть только Photo Gallery, в NextGEN я такого не нашел.
Отлично: спасибо, что написали!) Будем рекомендовать использовать этот плагин в случае подобных ситуаций :)
Нравится
Ответить
Поделиться
Vladimir Maltsev
7 декабря 2016
ммм. не совсем понятен инструмент в плане эффективности использования. Получается каждый раз при добавлении новой страницы, необходимо заново вручную генерировать карту. Зачем?)
А насчёт большой нагрузки на сервер – опять же, у нас есть настройки, которые позволяют достаточно системно решать проблему с нагрузкой:

– стандартная настройка «количество потоков» – которую вы можете менять вообще во время сканирования, тем самым понимая, какое количество самое оптимальное, чтобы хостинг выдерживал;
– при 1 потоке «задержка между запросами» – которую можно выставить в достаточно большое значение.

Но как бы там ни было, лучше решать проблему с хостингом не уменьшая количество потоков в генераторах Sitemap, а выбирая другой лучший хостинг :)
Нравится
Ответить
Поделиться
Vitaliy Korshunov
8 декабря 2016
Добрый день подскажите вы не думали сделать возможность выгрузки сразу в гуглдокс? Часто приходится работать там, а перегонять файлы не очень удобно!
Виталий, даже это в планах у нас есть, но не в самых приоритетных. Перегонять хоть и не слишком удобно, но всё же возможно, потому мы и не пытаемся сломя голову делать эту фичу.

А в принципе насчёт Google Docs с вами полностью согласен – я сам уже давно не пользуюсь ничем другим.
Нравится
Ответить
Поделиться
Alex Krivoshein
14 ноября 2016
А будет ли внедрена выгрузка карты сайта в xml и html форматах? если да то в каком временном интервале это планируется?
Alex Krivoshein, кстати, только вчера выкатили новый релиз, где внедрена выгрузка XML и HTML карт сайта. Смотрите подробнее здесь — https://netpeaksoftware.com/ru/blog/netpeak-spider-2-1-1-3-generatsiya-sitemap
Нравится
Ответить
Поделиться
Спасибо
за пробный период. Netpeak - хорошая
программа!
Дмитрий, спасибо за то, что описали плагин и за приятные слова в наш адрес!) 

Пользуйтесь и советуйте нам, что можно ещё улучшить – вместе сделаем программу лидером рынка!)
Нравится
Ответить
Поделиться
Максим Соболев
21 декабря 2016
Ребята, это невероятно круто! Вы молодцы)
Максим, спасибо за отзыв! Мы очень старались :)

А теперь пришло время немного принести счастья этому миру... с помощью улучшенного Netpeak Checker, разумеется.)
Нравится
Ответить
Поделиться
Слава Иванов
27 декабря 2016
Очень нужная фича! Спасибо огромное, ждём новый Checker)
Спасибо за приятные слова! Новый Netpeak Checker будет уже очень скоро :)
Нравится
Ответить
Поделиться
Слава Иванов
28 марта 2017
Очень полезный апдейт, много нужного функционала в личном кабинете появилось. Спасибо!
Спасибо и вам за отзыв: мы старались! :)
Нравится
Ответить
Поделиться
Такой долгожданный апдейт! Очень ждал параметры Яндекса, спасибо
Слава, спасибо за то, что ждали! ;)
Нравится
Ответить
Поделиться
Денис Ахсаров
7 сентября 2017
Мне программа выдала большое наличие Висячих узлов. Все они - картинки. Проблема ли это? И как устранить?Интернет-магазин на Опенкарт.
Денис, привет!) 

Я уже выше немного писал по этому поводу → сама ошибка "Висячий узел" крайне опасна. Но если там только изображения, то это не очень опасно, так что смело можете пропускать и заниматься более важными ошибками по внутреннему SEO-аудиту :)
Нравится
Ответить
Поделиться
Bogdan Topal
13 ноября 2017
Ура! Молодцы!
Не без твоей помощи, Богдан ;)
Нравится
Ответить
Поделиться
dewf fsdfds
7 декабря 2017
Добрый день! Скрыл вспомогательное меню скриптами(оставил его только на главной), программа считает что все хорошо, вес данных страниц снизился, нужных страниц увеличился. Но если посмотреть данные страницы как гуглбот через вебмастер, то Гугл видит данное меню, получается вес для поисковой системы все-таки не изменился? Спасибо.
Привет!)



Что означает для вас "скрыл меню скриптами"? SEO-hide? Google понемногу учится работать с JS и заверяет о том, что понимает ссылки, которые организованы через него, потому лучше в принципе избавляться от ссылок, не забывая о юзерах и юзабилити.
Нравится
Ответить
Поделиться
dewf fsdfds
7 декабря 2017
Скрыл с помощью JS. На данный момент ситуация такая, есть меню услуг - вынесено самое важное и основное и есть общее меню сайта - отзывы, о компании и.т.д. При расчете статического веса данные страницы имеют одинаковый показатель. При скрытии меню через JS Netpeak Spider показывает результат, которого мы бы хотели добиться, т.е. вес ненужных пунктов меню понизился. Если посмотреть страницы через Search Console сканирование-посмотреть как гуглбот, то меню видно на скриншоте "Так увидел эту страницу робот Googlebot".

Netpeak Spider как-то учитывает, что Гугл вначале рендерит страницу и исполняет JS при расчете статического веса и доступен ли данный JS пауку Googlebot?
Я понял вас!) Googlebot может рендерить JavaScript, Netpeak Spider пока что не умеет этого делать. Мы только в процессе разработки этой фичи.

Я вам как раз пытался объяснить в прошлом сообщении, что Google понимает ссылки, реализованные через JS, потому лучше пытаться не закрывать их скриптами, а реально убирать. Но если ссылки нужны бизнесу сайта и полезны для юзабилити, тогда нужно искать компромиссы.
Нравится
Ответить
Поделиться
dewf fsdfds
7 декабря 2017
Спасибо, а если закрыть JS от индексации в robots, это не решит проблему? Для юзабилити меню останется, статический вес станет меньше, чем на необходимых страницах.
Google очень не рекомендует этого делать – это же и есть SEO-hide. Очень советую всё-таки постараться как-то иначе, более просто (с технической точки зрения) и более сложно (с моральной) решить проблему.
Нравится
Ответить
Поделиться
dewf fsdfds
7 декабря 2017
Я должен был еще раз это спросить=) Спасибо, буду думать.
Netpeak Spider оказался самым удобным инструментом, функции такие же как у конкурентов, а юзабилити и простота в настройках на высоте.
Спасибо за приятные слова – мы стараемся! =)

И прошу извинения, что подводим с рендерингом JavaScript → это временно. Уже есть задумки, как сделать это оптимально!
Нравится
Ответить
Поделиться
1. Мы серьёзно. 
2. Если у вас есть копия нашего продукта, написанная на Python – вы большой молодец. Но я сомневаюсь, что у вас именно копия, так как мы работаем над текущим продуктом уже около 2-х лет, потратив огромное количество времени разработчиков, тестировщиков, project-менеджеров и менеджеров по работе с клиентами на улучшение продуктов. Это очень кропотливый труд и его очень сложно скопировать, даже если сильно захотеть :) 
3. По поводу работы с большими проектами: 

– На Windows – у нас дела получше: и в текущей версии всё кастомизируемо (можно работать с сайтами по 5 млн страниц без проблем); и в новой версии Netpeak Spider 3.0, которую мы сейчас разрабатываем – будет всё ещё лучше: там не нужно будет париться с отключением каких-то параметров, всё по умолчанию будет оптимизировано и это будет первый прецедент на рынке.
– На Mac OS – здесь немного сложнее с большими сайтами, и эта версия немного отстаёт от версии на Windows. Потому после запуска Netpeak Spider 3.0 на Windows мы уже будем думать о переделывании текущей версии Спайдера на Mac OS под новую архитектуру. Пока что на Mac OS могу посоветовать пробивать сайт частями, либо с использованием правил сканирования, обязательно с отключением параметра "Входящие ссылки" (пока что он жрёт больше всего оперативной памяти).
Дмитрий, могу ли я чем-нибудь ещё вам помочь? ;)
1Нравится
Ответить
Поделиться
Andrey Bondar
29 января 2018
Круто! Мои поздравления!
Блог огонь и "Непрочитанность" очень понравилась и как механика, и как креативность в названиях :)
Спасибо!) С "непрочитанностью" мы просто решили сделать это понятным и видным всем, а то такая механика достаточно давно используется многими ресурсами, но принципы работы не разглашаются)) Здесь всё максимально прозрачно!
2Нравится
Ответить
Поделиться
Bogdan Topal
28 марта 2018
Молодцы!! Впечатляет. Ждем версию mac OS.
А как я жду, Богдан! ;) Спасибо за поддержку.
3Нравится
Ответить
Поделиться
Спасибо за статью, Николай! Всё по делу ;)

Единственный вопрос интересует → как вы замеряли, что поднялся трафик именно от сокращения URL: точно ли никаких других движений с сайтом не делали (я про чистоту эксперимента)?
2Нравится
Ответить
Поделиться
Алекс, спасибо за отзыв и отличный вопрос ... 

Вообще, первое, что я делал на своем блоге, чтобы привлекать трафик это писал множество контента. И контент был не самого высокого качества. Поэтому сильного роста я не наблюдал, а иногда он и вовсе застывал на одном месте на несколько месяцев, (как в описании первой тактики).

В то же время я постоянно читал популярные западные блоги и сайты и находил все больше информации о том, как сделать сайт более посещаемым и как увеличивать трафик. Далее, я применял это на практике. 

И как только я что-то новое делал, я замечал вот такие скачки трафика. Например, в прошлом году, когда трафик моего блога вырос почти в 2 раза, я не написал вообще ни одной статьи. 

А в этом году я начал наращивать ссылочную массу легальными методами и заметил, что трафик тоже идет в верх и причем сильно. 

Николай.
Понял, спасибо за подробный ответ ;) Удачи вам в раскрутке вашего блога!
1Нравится
Ответить
Поделиться
Отличный пост !
и самое главное, не забываем выбрать *заранее* качественный шаблон для Wordpress, ведь от оптимизации темы зависит и его быстрая реакция и скорость работы ( меньше мусора в коде, лучше и интереснее процесс раскрутки).
Чем меньше ошибок в коде, тем легче роботу индексировать ваш сайт :)
Айк, просто райский бальзам для глаз ;)

Александра ещё кучу постов про оптимизацию сайта на WordPress написала, зацените → https://netpeaksoftware.com/ru/blog/user/7bf5f9d3#posts
1Нравится
Ответить
Поделиться
Вот читаю я этот пост и задумываюсь: есть ли ещё какие-то области SEO для WordPress, которые мы не покрыли? ;) ха-ха-ха!
2Нравится
Ответить
Поделиться
Стараемся направлять людей в приложение))) 
Вообще сейчас остается следить за техническим состоянием сайта, улучшать структуру под запросы как раз таки под среднечастотные, следить за трендами, в частности уже скоро да уже прям сейчас есть смысл работать с голосовым поиском. Скоро это изменит все
Согласен насчёт голосового поиска: всё к этому идёт :) Мне уже самому иногда неудобно что-то вводить, легче либо голосовое сообщение отправить, либо попросить у Siri что-нибудь сделать.
Нравится
Ответить
Поделиться
Aleh Barysevich
3 августа 2018
Добрый день от команды SEO PowerSuite и лично меня, Олега Борисевича :) Круто, что вы продолжаете развивать Netpeak Spider, всегда приятно видеть улучшения, молодцы! А можете подробнее немного рассказать о проведенном эксперименте со сравнением краулеров? Интересно, какие использовались вводные данные, домены, какое железо, насколько репрезентативна выборка, ну и вообще методологию эксперимента. Думаю, всем пользователям было бы это тоже очень интересно. Спасибо!
Олег, привет: лично от меня и команды Netpeak Software! ;) Извиняюсь за такой долгий ответ — попросил своих ребят дать мне ответить, а тут ещё и выходные, потому немного затянулось.

Как я писал в статье, для сравнения краулеров мы приводили настройки программ к максимально похожим (насколько это позволяют сделать сами программы) и сканировали одинаковые сайты. Чуть подробнее опишу ниже:

1. Одинаковые настройки → область обхода сайта, количество потоков, типы сканируемого контента, учёт правил индексации, User Agent, IP-адрес.

2. Одинаковое железо → Windows Server 64-bit, процессор i7 2.67 GHz, оперативная память 24 GB, обычный жёсткий диск (не SSD).

3. Одинаковый домен → замеры проводились на сайте opera.com, который имеет достаточно много страниц и очень хорошую скорость ответа сервера, позволяющую «разогнать» сканирование до 70 URL/сек.

4. Одинаковый полный доступ к программам → купленные лицензии Screaming Frog SEO Spider, WebSite Auditor (тариф «Enterprise») и Sitebulb.

5. Перед каждым запуском проверялись 1000 страниц с помощью Netpeak Spider на соответствие эталонным показателям типа скорости сканирования и качества получения результатов (у нас они почти не меняются при сканировании сайта вглубь). Если всё стандартно, то сканирование начиналось следующим продуктом. Это необходимо, чтобы убрать фактор в стиле «Конечно же, вы просканировали своим продуктом 100K и после него Opera блокирует наш продукт и потому мы такие медленные!».

6. Каждый тест проведён несколько раз (некоторые продукты — очень много раз, так как не все смогли даже нагрузку в 100K выдержать). Результаты получились примерно одинаковые, то есть достаточно репрезентативные.

Отдельно хочу поблагодарить за приятные слова насчёт развития Netpeak Spider. Мы стараемся! Вы тоже большие молодцы, у вас хороший продукт :)

Олег, я могу ещё чем-то помочь?
Нравится
Ответить
Поделиться
Отличный мануал.
Я рекомендую добавить видео обзоры *лайфхаков* спайдера - будет намного интереснее :)
Скоро обязательно добавим → уже есть в планах ;)
Нравится
Ответить
Поделиться
Подскажите пожалуйста, а как можно URL картинки спарсить?
Олег, хоть Вика и ответила выше, но по таким точечным вопросам очень советую обращаться к нашим ребятам в техподдержку — они любят такие задачки ;)
Нравится
Ответить
Поделиться
Было бы неплохо при загрузке Netpeak Spider / Checker просить подсоединить датчик и загружать прямо в голову эту информацию каждому нашему пользователю — уж очень часто меня спрашивают, почему страницы не индексируются или вообще не сканируются ;)
Нравится
Ответить
Поделиться
Евгений Кузнецов
31 августа 2018
1. Не рассказано на что опирались при наращивании ссылок (количество, распределение по страницами, как искали площадки).
2. Делали ли текстовую аналитику для статей, ориентировались ли на длину статей конкурентов?
3. Вы выбирали не конкурентные запросы для продвижения. Исходя из чего делали вывод, что запрос не конкурентный? Если на KD Ahrefs, то какое граничное значение брали?
4. Итоговый график - это общий трафик? Какая доля блога?
5. Какой это регион?
6. Почему не дали ссылку на проект?)
Евгений, вот это по-нашему → критикуешь? предлагай! ;)
Нравится
Ответить
Поделиться
Тут и так достаточно деталей
Александр, видите, читатели просят — надо дополнить немножко, хотя бы в комментариях!

За пост спасибо ;)
Нравится
Ответить
Поделиться
Andrii Gora
24 сентября 2018
Получается появился достойный конкурент SEO PowerSuit? Только в разы дороже, с платной рекаптчей и без визуализации. На кой?
Привет!)

1. Да, появился. Хотя нет, всегда был, если брать связку Netpeak Checker с Netpeak Spider — некоторые функции серьёзно пересекаются, но далеко не все.

2. Не в разы дороже.

3. Да, с платной антикапчей. В будущем, возможно, решим эту проблему, добавив решение капчи в отдельный тариф.

4. Насчёт визуализации — это вы про какой именно инструмент? Если про новый Netpeak Checker, то там никакой визуализации и не было предусмотрено, так как это всё-таки не трекер позиций. Если вы про Netpeak Spider, то это совсем другая история и у нас есть много функций, с помощью которых мы можем хорошо "поконкурировать" ;)

5. Если вы не видите смысла заранее в инструменте, то наша команда может вам помочь разобраться и увидеть этот смысл. Если и после этого не подойдёт, то вы хотя бы точно это будете знать!)
1Нравится
Ответить
Поделиться