Netpeak Spider 3.2: рендеринг JavaScript и аудит в PDF

Обновления
22Нравится
11Комментарии
Поделиться
Netpeak Spider 3.2: рендеринг JavaScript и аудит в PDF

Друзья, из этого поста вы узнаете, что мы приготовили для вас в рамках долгожданного релиза Netpeak Spider 3.2 :) Нам прямо не терпится поделиться подробностями, но для начала — небольшой видеотизер.

А теперь приступим к деталям. Если вы хотите перейти к конкретному разделу, поберегите ваши колёсики на мышках и воспользуйтесь содержанием:

  • 1. Рендеринг JavaScript
  • 2. Технический SEO-аудит (PDF)
  • 3. Расширенное описание ошибок
  • 4. Остальные изменения
  • 5. Коротко о главном

1. Рендеринг JavaScript

Прежде чем рассказать об особенностях этой долгожданной функции в нашем краулере, давайте вспомним, как Google индексирует контент, который добавляется на страницу скриптами.

Не терпится скорее попробовать рендеринг JavaScript? Скрыть подробности и перейти к особенностям настройки функции в Netpeak Spider.

1.1. Что такое рендеринг JavaScript

Выполнение или рендеринг JavaScript — это формирование окончательного слепка HTML-кода страницы, учитывая изменения, внесённые JS-скриптами.

Изначально поисковые роботы сканировали и индексировали только контент, который передавался в статическом исходном коде HTML. Однако сейчас при разработке сайтов всё чаще используют JS-фреймворки, когда контент частично или полностью добавляется с помощью JavaScript. Вот наглядный пример HTML-кода до и после выполнения JavaScript с нашего же сайта:

  • отображение цены Netpeak Spider на одной из наших страниц — до выполнения JavaScript:
<h4>12 месяцев</h4> <div>$[vm.amountByMonthMain[vm.urlParameter__spider]]/мес.</div>
  • отображение этого же блока после выполнения JS-скриптов:
<h4>12 месяцев</h4> <div>$9,80/мес.</div>

Google пришлось подстроиться под развитие веб-технологий, и сейчас он уже обрабатывает и рендерит контент, который добавляется на страницу с помощью JavaScript. Их сервис веб-рендеринга (WRS) основан на браузере Chrome.

Поисковый робот Google сканирует сайты в две стадии:

  1. Во время первой он (как раньше) работает только с HTML: запрашивает исходный код, сканирует и индексирует контент, а также добавляет найденные ссылки в очередь сканирования.
  2. На второй стадии выполняется рендеринг (отображение) контента. На этом этапе ему необходимы ресурсы для выполнения JavaScript. Потому если ресурсов сканирования недостаточно, между первой и второй стадией возможен временной интервал.

Разделение индексации и рендеринга позволяет Google максимально быстро проиндексировать контент, который доступен без JavaScript, а потом вернуться и добавить контент, для которого он требуется.

Стадии сканирования сайтов поисковым роботом Google с выполнением JavaScript

Если на первом этапе Google не получил важный контент страницы, то добавление этого контента в индекс будет происходить на втором этапе, где возможны задержки.

Есть два способа передачи контента, которые используют современные веб-приложения:

  • Рендеринг на стороне клиента (client-side rendering, CSR) — поисковая система получает пустую HTML-страницу (практически без контента), а основной контент добавляется на страницу с помощью скриптов JavaScript. В таком случае необходимо ждать второй стадии сканирования, и контент может попасть в индекс с задержкой.
  • Рендеринг на стороне сервера (server-side rendering, SSR) — в этом случае поисковая система получает слепок HTML уже со всем важным контентом страницы. Потому он добавляется в индекс на первой стадии сканирования, и можно не переживать из-за возможных задержек второй стадии.

Продвинутый SEO-специалист должен разбираться в этих аспектах. По сути JavaScript SEO — это обеспечение того, что контент, который добавляется на страницу с помощью JavaScript, успешно обрабатывается поисковым роботом, попадает в индекс и учитывается в ранжировании.

Дальше мы объясним, зачем обработка JavaScript нужна в современных SEO-инструментах, и как её использовать.

1.2. Зачем рендеринг JavaScript нужен в краулере

Если вы попытаетесь просканировать сайт, на котором используется CSR, традиционным способом (анализируя только HTML), краулер не сможет обнаружить данные, которые добавляются с помощью JavaScript (ссылки, описания, изображения и т.д.), а следовательно и найти ошибки на таком сайте.

Поэтому, чтобы обработать подобные сайты как Googlebot, краулеру нужен браузер для выполнения JavaScript → чтобы загрузить весь контент с учётом изменений, внесённых скриптами, и только потом анализировать его.

1.3. Как настроить рендеринг JavaScript в Netpeak Spider

В Netpeak Spider рендеринг JavaScript реализован с помощью встроенного браузера Chromium, на основе которого создан самый популярный в мире браузер Chrome. Мы используем одну из последних версий Chromium, что делает сканирование в Netpeak Spider максимально продвинутым и приближённым к поведению Googlebot, но не идентичным, так как Google использует старую версию браузера Chrome 41, которая не поддерживает некоторые современные особенности JavaScript.

Чтобы начать сканирование страниц с выполнением скриптов JS, зайдите в настройки → вкладка «Основные» → отметьте галочкой пункт «Включить рендеринг JavaScript и установить AJAX timeout, c»:

Настройка рендеринга JavaScript и AJAX timeout в Netpeak Spider

Настройка «AJAX timeout» устанавливает время ожидания выполнения JavaScript после загрузки страницы и файлов ресурсов (JS / CSS). Это нужно, чтобы все скрипты успели отработать.

Давайте рассмотрим пример сканирования сайта, где контент полностью выводится с помощью JavaScript. В этом случае вы не сможете просканировать такой сайт без включённого рендеринга JS.

Пример сканирования JS-сайта в Netpeak Spider с выключенным рендерингом JavaScript

Пример сканирования JS-сайта в Netpeak Spider с выключенным рендерингом JavaScript

Пример сканирования JS-сайта в Netpeak Spider с включённой функцией рендеринга JavaScript
Пример сканирования JS-сайта в Netpeak Spider с включённой функцией рендеринга JavaScript

1.4. Особенности JS-рендеринга в Netpeak Spider

Netpeak Spider использует рендеринг с выполнением JS-скриптов только для HTML-страниц с кодом ответа 200 OK. Это ускоряет работу программы и позволяет не тратить ресурсы на страницы, для обработки которых не нужно использовать браузер.

Если вы хотите просканировать сайт с включённым рендерингом JavaScript, помните, что это увеличивает время сканирования. Когда краулер работает без рендеринга, происходит всего один запрос для получения HTML-кода страницы. Когда вы включаете рендеринг, дополнительно происходит запрос в Chromium для получения HTML-кода, загрузка JS и CSS-файлов и само выполнение JavaScript за время, указанное в настройке AJAX timeout. Соответственно, сканирование займёт больше времени.

Также при рендеринге JavaScript Netpeak Spider:

  • использует User Agent, выбранный пользователем в настройках сканирования;
  • поддерживает базовую аутентификацию;
  • поддерживает список прокси;
  • блокирует запросы к аналитическим сервисам (Google Analytics, Яндекс.Метрика и т.д.), чтобы не искажать аналитику сайта;
  • учитывает cookies независимо от настроек, выставленных на вкладке «Продвинутые»;
  • не загружает iframe и изображения;
  • ограничен 25 потоками. Таким образом, если вы выставите в настройках сканирования 100 потоков, Netpeak Spider будет одновременно сканировать 100 документов обычным способом, однако рендерить будет только 25 доступных HTML-страниц.


А теперь давайте перейдём ко второй новой функции нашего краулера. Подозреваем, что визуалам она особенно понравится ;)

2. Технический SEO-аудит (PDF)

В новой версии Netpeak Spider мы добавили возможность в один клик экспортировать отчёт в формате PDF с SEO-аудитом на основании результатов проведённого сканирования.

Благодаря этой функции вы сможете получить в Netpeak Spider лучшее от «двух миров»: глубину анализа и кастомизацию десктопного инструмента и визуализацию результатов на уровне самых продвинутых онлайн-продуктов.

Отчёт доступен в меню «Экспорт»:

Экспорт SEO-аудита в формате PDF в Netpeak Spider

Мы поставили себе цель добиться максимально качественной визуализации данных, добавив в логику программы совершенно новые показатели, а также учли такие нюансы:

  • В отчёте будут показаны только те данные, которые были найдены на сайте во время сканирования. Разделы и диаграммы, для которых нет данных, не выводятся — а значит, вы не увидите пустые листы и таблицы, просто потому что во время сканирования не была найдена та или иная ошибка / параметр.
  • В отчёте отображаются показательные примеры для анализа данных, а не полный список соответствующих URL. А значит при анализе средних и крупных сайтов не придётся пролистывать десятки страниц отчёта с сотнями трудночитаемых ссылок.

2.1. Кому это будет полезно?

PDF-отчёты пригодятся в первую очередь SEO-специалистам. Это улучшенная и расширенная (на 20+ страниц) версия дашборда программы, которой удобно пользоваться для оценки качества оптимизации проекта или списка URL. Тут наглядно показана ключевая информация для аудита сайта — достаточно дополнить её собственными рекомендациями и можно отправлять клиенту или же коллегам на внедрение.

Если же вы специалист по продажам, то в отчёте есть краткая сводка о состоянии сайта, с помощью которой вы сможете быстро оценить проект и обсудить фронт работ с клиентом.

2.2. Структура и особенности PDF-отчётов

Отчёт строится по данным из таблицы «Все результаты», на которые непосредственно влияют настройки, параметры и сегментация (попробуйте протестировать различные виды отчётов, меняя их).

Каждый раздел отчёта посвящён определённому аспекту оптимизации. Давайте пройдёмся подробнее по каждому из них.

2.2.1. Заглавная страница + содержание

Если во время анализа в Netpeak Spider использовался режим сканирования сайта, то на первой странице будет показан скриншот начальной страницы и домен сканируемого ресурса, чтобы было удобно визуально различить отчёты для разных сайтов.

Netpeak Spider: заглавное изображение аудита при сканировании сайта

Если же был просканирован просто список URL без начальной страницы, то вместо скриншота будет показано специальное изображение:

Netpeak Spider: заглавное изображение аудита при сканировании списка URL

На каждый раздел из содержания стоит якорная ссылка, чтобы было удобно перемещаться по документу.

2.2.2. Сводка

В этом разделе собрана краткая сводка по результатам сканирования. Это самый ёмкий отчёт: он позволяет быстро понять, какие данные анализируются, и какие ошибки были найдены.

Netpeak Spider: раздел «Сводка» в техническом SEO-аудите

Здесь отображаются такие данные:

  • Режим сканирования → проверка сайта или проверка списка URL.
  • Начальный URL сканирования. Если был просканирован список URL, то здесь отобразится первый URL из списка.
  • Количество параметров, которые были выбраны во время генерации отчёта.
  • Количество и типы URL, по которым построен текущий отчёт.
  • Количество URL с важными ошибками (высокой и средней критичности).
  • Основные типы ошибок → свежая группировка для ещё более быстрого понимания результатов аудита.
  • Тип контента → отдельные диаграммы для внешних и внутренних страниц.
  • Основные хосты.
2.2.2.1. Тип контента (внутренних и внешних URL)

Эти отчёты помогают оценить и сравнить количество разных типов документов, которые были найдены во время сканирования. Отдельно показаны диаграммы для внутренних и внешних URL (здесь и в остальных разделах отчёта они будут отмечены синим и фиолетовым цветом соответственно).

Netpeak Spider: раздел «Сводка» в техническом SEO-аудите — тип контента

2.2.2.2. Основные хосты

В этой таблице отображены основные хосты, которые анализируются в данном аудите — может быть полезно, если на вашем сайте много хостов или при проверке списка URL.

Netpeak Spider: раздел «Сводка» в техническом SEO-аудите — основные хосты

2.2.3. Структура URL

Этот отчёт поможет визуально оценить структуру просканированных URL. Здесь показаны наиболее популярные хосты и сегменты второго уровня (например, site.com/category/).

Netpeak Spider: раздел «Структура URL» в техническом SEO-аудите

Ещё мы добавили в отчёт данные по [документам в корне] — количество документов, которые находятся в корне сайта, то есть не содержат сегменты.

2.2.4. Коды ответов сервера

В данном разделе показаны коды ответов сервера внутренних и внешних URL.

Netpeak Spider: диаграмма «Код ответа сервера внутренних URL» в техническом SEO-аудите

Netpeak Spider: диаграмма «Код ответа сервера внешних URL» в техническом SEO-аудите

2.2.5. Сканирование и индексация

В разделе показаны данные об инструкциях и серверных настройках, которые влияют на сканирование и индексацию контента (здесь анализируются только внутренние URL). Напомним, что неиндексируемые документы зачастую не приносят трафик из поисковых систем и даже, напротив, расходуют краулинговый бюджет.

Netpeak Spider: раздел «Сканирование и индексация» в техническом SEO-аудите

Возможно, диаграммы по индексируемости и причинам неиндексируемости URL вам уже знакомы (они также доступны на дашборде Netpeak Spider). А сводки по значениям Meta Robots и X-Robots-Tag, а также по использованию canonical — это новые отчёты, доступные пока что только в аудите.

Netpeak Spider: Сводки по значениям Meta Robots, X-Robots-Tag и сanonical в техническом SEO-аудите

2.2.6. Глубина и вложенность URL

В данном разделе показаны глубина (количество кликов от начальной сканируемой страницы до текущей) и вложенность URL (количество сегментов в адресе документа).

Netpeak Spider: раздел «Глубина и вложенность URL» в техническом SEO-аудите

Подробнее о возможных проблемах:

  • Страницы с глубиной больше «4» потенциально могут хуже индексироваться и, как следствие, не приносить органический трафик.
  • URL страниц с вложенностью больше «4» и / или слишком длинным адресом могут сложнее восприниматься посетителями сайта.

2.2.7. Скорость загрузки

Этот отчёт помогает оценить скорость ответа сервера внутренних и внешних документов. Данный параметр является важным фактором ранжирования — быстрые сайты зачастую получают больше трафика, меньше отказов и показывают более высокие результаты по конверсии. В отчёте анализируются только URL с 2xx кодом ответа сервера.

Чаще всего для генерации и обработки HTML-страниц сервер тратит больше времени, а статические файлы обычно кэшируются и возвращаются быстрее. Потому мы разделили отчёты для HTML и не HTML-страниц, чтобы анализировать страницы похожих типов.

Netpeak Spider: раздел «Скорость загрузки» в техническом SEO-аудите

Также отдельно показаны внутренние и внешние документы. В первую очередь нужно обращать внимание на внутренние и сделать всё возможное, чтобы они загружались быстро. Но не стоит забывать и о внешних. Если сайт ссылается на внешний документ, который долго открывается, то это ухудшает пользовательский опыт. Если на HTML-страницу загружаются внешние ресурсы (JS, CSS, изображения, шрифты), то скорость их загрузки напрямую влияет на скорость загрузки всей страницы.

Для внутренних документов выводятся дополнительно максимальное, минимальное значение и медиана. Это помогает быстро оценить разброс по скорости загрузки. Если сервер работает стабильно, то разброс должен быть небольшим.

2.2.8. Протоколы HTTP/HTTPS

В данном разделе показаны протоколы документов: защищённый (HTTPS) и незащищённый (HTTP). Мы показываем этот отчёт, так как если на сайтах с HTTPS-протоколом есть HTML-страницы, изображения или ресурсы с HTTP-протоколом, это может привести к ошибке «Смешанное содержимое». В этом случае пользователи могут увидеть в браузере соответствующее предупреждение, а поисковые системы будут считать сайт небезопасным.

Netpeak Spider: раздел «Протоколы HTTP/HTTPS» в техническом SEO-аудите

2.2.9. Оптимизация контента

В данном разделе анализируются только внутренние индексируемые страницы, потому что SEO-ошибки, связанные с контентом, необходимо устранять в первую очередь для внутренних страниц сайта, которые потенциально получают трафик.

Мы сосредоточились на данных, которые могут быть сигналом об упущенных возможностях оптимизации и негативно повлиять на ранжирование и отображение сайта в выдаче поисковых систем:

  • Title, description, H1: уникальность, наличие на страницах, длина → как для пользователей, так и для поисковых систем ошибки в этих параметрах могут говорить о некачественности сайта.
  • Количество символов и слов на странице → часто страницы с бóльшим количеством текста находятся выше в поиске, так как лучше раскрывают тему.
  • Размер изображений → картинки с большим весом загружаются медленнее и тем самым снижают скорость загрузки страницы. Если же страница загружается долго (особенно на мобильных устройствах, где скорость интернета ниже), пользователь может посчитать сайт некачественным и покинуть его.

Netpeak Spider: раздел «Оптимизация контента» в в техническом SEO-аудите

2.2.10. Ошибки

В этом разделе показаны отчёты об ошибках, обнаруженных во время сканирования:

  • Количество URL с ошибками различной степени критичности.
  • Топ самых важных ошибок, исправление которых может дать наиболее ощутимый результат при продвижении.
  • Cписок самих ошибок со ссылками на документацию и примерами URL, где они были обнаружены.

Netpeak Spider: раздел «Ошибки» в техническом SEO-аудите

2.2.11. Термины

В конце аудита описано значение некоторых важных терминов.

  • Просканированные URL — документы, по которым есть хотя бы какие-то данные в таблице со всеми результатами. Обратите внимание, что применение сегментации влияет на этот показатель.
  • Важные ошибки — ошибки только высокой и средней критичности.
  • Внутренние URL — документы с таким же доменом, как у начального URL или у первого URL в списке: обычно это внутренние страницы сканируемого сайта. Во всех разделах они отмечены синим цветом.
  • Внешние URL — документы с адресом, не содержащим домен начального URL: чтобы включить их анализ, выберите «Сканировать внешние ссылки» на вкладке «Основные» настроек сканирования. Во всех разделах они отмечены фиолетовым цветом.
  • Ресурсы — документы, которые не являются HTML или изображениями и возвращают 2xx код ответа сервера. В их числе: файлы JavaScript, CSS, PDF, XML, JSON, PlainText, GZIP и другие.
  • Неиндексируемые — HTML-документы с отличным от 2xx кодом ответа сервера или закрытые от сканирования и индексации.

2.2.12. Настройки

В этом разделе показаны параметры и настройки сканирования, которые использовались при создании аудита. Мы заранее продумали возможные ситуации и вывели информацию, которая позволит определить, каким образом происходило сканирование, и почему не отображаются некоторые отчёты.

Netpeak Spider: раздел «Настройки» в техническом SEO-аудите

А теперь дело за вами → поскорее попробуйте сгенерировать отчёт по уже сохранённым проектам или же запускайте сканирование, чтобы собрать данные и рассмотреть отчёт во всех деталях ;)


3. Расширенное описание ошибок

Во время сканирования Netpeak Spider показывает обнаруженные, а также необнаруженные и отключённые ошибки на сайте. Они могут быть высокой, средней и низкой критичности, что отмечено соответствующим цветом.

Если вы нажмёте на любую ошибку на боковой панели на вкладке «Ошибки», то в нижней части интерфейса на панели «Информация» появится её подробное описание.

Мы существенно расширили описание каждой ошибки пунктами:

  • чем грозит эта ошибка,
  • как её исправить,
  • подборкой полезных ссылок на материалы, которые помогут глубже разобраться в проблеме.

Панель «Информация» с расширенным описанием ошибки в Netpeak Spider

Теперь при возникновении каких-либо вопросов об ошибках обязательно загляните на панель «Информация» — мы постарались ответить на большую часть из них именно там. Кстати, попробуйте менять высоту этой панели → так будет удобнее читать детальные описания ошибок, где мы особенно увлеклись ;)

3.1. Экспорт отчёта с расширенными описаниями ошибок

Порадуем ещё одной полезной функцией, которая позволит применить наши расширенные описания ошибок непосредственно в вашей работе.

Теперь вы можете экспортировать комбинацию из краткой сводки по всем найденным ошибкам и расширенными описаниями к ним. Это позволит быстро поставить техническое задание на их устранение.

Экспорт отчёта с расширенными описаниями ошибок из Netpeak Spider

Этот отчёт называется «Сводка по ошибкам + описания». Он доступен в меню «Экспорт» → «Отчёты по ошибкам», а также в таких пакетных выгрузках:

  • «Набор основных отчётов»,
  • «Все ошибки»,
  • «Все доступные отчёты (основные + XL)».

3.2. Изменения в ошибках: степень критичности, названия, сортировка

Мы также сделали «весеннюю уборку» среди наших параметров и ошибок — и вот что изменилось.

3.2.1. Изменения в степени критичности ошибок

  • Средняявысокая:

    • Дубликаты H1;
    • Цепочка канонических URL;
    • 5xx ошибки: Server Error;
    • Неправильный формат AMP HTML.
  • Высокаянизкая:

    • Неправильный формат тега Base;
    • Макс. длина URL.
  • Средняянизкая:

    • Несколько заголовков H1.

3.2.2. Изменения в названиях ошибок и параметров

  • Битые ссылки → Битые страницы (так как в этом отчёте вы видите всё-таки страницы, а ссылки можно просмотреть в отдельном интерфейсе или даже выгрузить через меню «Экспорт»);
  • Дубликаты Canonical URL → Одинаковые канонические URL;
  • Canonical, заблокированный в robots.txt → Канонический URL, заблокированный в robots.txt;
  • Цепочка Canonical → Цепочка канонических URL;
  • Canonical URL → Канонический URL.

3.2.3. Изменения в логике определения ошибок и параметров

  • Ошибка «Неправильный формат тега Base»: раньше относительный URL в этом теге считался ошибкой. Теперь ошибка определяется, если в атрибуте href указан URL с неправильным форматом.
  • Параметр «Канонический URL»: теперь учитывается только абсолютный URL в инструкции canonical, как требует этого Google. Если указан относительный → в таблице будет указано значение (NULL).

3.2.4. Изменения в сортировке ошибок

Мы улучшили сортировку ошибок, поставив на видные места наиболее важные и распространённые из них.


4. Остальные изменения

Кратко опишем другие изменения в Netpeak Spider 3.2:

  • Изменена логика определения внутренних адресов для списка URL. Чтобы определить, является ли ссылка внешней или внутренней, Netpeak Spider учитывает «Начальный URL»: если домен совпадает, ссылка считается внутренней, если нет — внешней. Раньше при сканировании списка URL (и при отсутствии начального) все ссылки считались внешними. Теперь же они сравниваются друг с другом: если все хосты адресов принадлежат одному домену, URL пойдут в отчёт о внутренних ссылках; если хотя бы один URL относится к другому домену, все адреса будут считаться внешними. Эти изменения влияют на отображение результатов в отчётах.
  • Улучшили шаблон параметров «По умолчанию». Это было необходимо для эффективной работы новой функции экспорта аудита в PDF.
  • Сортировка результатов в таблице сохраняется только на период сессии, то есть до перезагрузки программы. В новой сессии сортировка будет стандартная, по порядковому номеру URL. Мы вынуждены были так сделать, чтобы не создавать нашим пользователям лишний повод запутаться в результатах анализа.
  • На дашборде во время сканирования теперь выводятся новые настройки «Рендеринг JavaScript» и «Ajax Timeout».
  • Оптимизирована работа с robots.txt. Теперь при запуске / продолжении сканирования запрос к robots.txt отправляется только один для каждого хоста (раньше могло отправляться несколько для одного и того же robots.txt, если было установлено много потоков).
  • Название проекта и файлов экспорта формируется на основе начального URL сканирования. Теперь при сохранении проекта или отчёта в названии файла будет указываться хост из начального URL (если сканируется определённый сайт) или первого URL в таблице (если проверяется кастомный список URL).
  • Были улучшены оповещения в правом нижнем углу: об успешном экспорте таблицы или отчёта теперь отображается в течение 60 секунд (раньше было 7 секунд), чтобы было удобнее кликнуть на него и перейти в папку расположения файла; об окончании сканирования и остальные теперь не перебивают фокус с других программ (раньше при их возникновении активным становилось окно Netpeak Spider).
  • По умолчанию включена настройка «Разрешить cookies» на вкладке продвинутых настроек. Это является одной из частых причин, почему сайт не сканируется или сканируется некорректно, потому мы включили учёт cookies по умолчанию. Напомним, что эта настройка не влияет на рендеринг в браузере: при сканировании в Chromium cookies всегда учитываются.
  • Произведено множество изменений текстов внутри программы, чтобы ещё лучше объяснить некоторые нюансы или подсказать, как работает определённый функционал. Если вы замечаете какие-то неточности, сообщайте в нашу службу поддержки.

Зарегистрируйтесь, если вы ещё не с нами

Чтобы начать пользоваться бесплатным Netpeak Spider, просто зарегистрируйтесь, скачайте и установите программу — и вперёд!

Зарегистрироваться

5. Коротко о главном

В версии Netpeak Spider 3.2 мы реализовали долгожданный функционал, который теперь позволит пользователям более широко использовать нашу программу, а именно:

  • Рендеринг JavaScript;
  • Технический SEO-аудит в PDF с отчётами: «Сводка», «Структура URL», «Сканирование и индексация», «Коды ответов сервера», «Глубина и вложенность URL», «Скорость загрузки», «Протоколы HTTP/HTTPS», «Оптимизация контента» и «Ошибки»;
  • Расширенное описание ошибок: чем грозит, как исправить и список полезных ссылок;
  • Экспорт нового отчёта «Сводка по ошибкам + описания»;
  • А также 50+ других улучшений.

Друзья, спасибо за внимание! Надеемся, теперь ваша работа с Netpeak Spider станет ещё более эффективной ;) Мы были бы очень рады узнать о вашем фидбеке, так что не забывайте о возможности оставить комментарий с отзывом или предложением, а мы пока работаем над внедрением новых фич в Netpeak Checker!