ВходящиеВходящие
ВажныеВажные
ВидеоВидео
Категории
ОбновленияОбновления
МануалыМануалы
КейсыКейсы
ПодборкиПодборки
От экспертовОт экспертов
НовостиНовости
ТестыТесты
Входящие
Важные
Видео
Kosta Bankovski

Kosta Bankovski

Product Marketing Manager в Netpeak Software
Seattle, WA
  • Комментарии (21)
  • Посты (13)
Сортировка:
Сортировка:
SEO-краулер Netpeak Spider: описание программы и главные преимущества
ВидеоМануалы
Мультифункциональный SEO-инструмент Netpeak Checker: описание и главные преимущества
ВидеоМануалы
May 2020 Core Update: вопросы экспертам о масштабном майском обновлении Google
От экспертов
Как искать домены с истёкшим сроком регистрации с помощью Netpeak Spider и Checker
ВидеоКейсы
Как наращивать ссылочный профиль, зачем нужен линкбилдер, и много других вопросов Игорю Руднику
От экспертов
Как найти и дооптимизировать старые статьи на блоге
Кейсы
Как проверить сайт на SEO-ошибки и найти точки роста трафика проекта: пошаговый мануал
Мануалы
Отличия продвижения в Google и Яндекс: вопросы экспертам
От экспертов
Netpeak Spider 3.2: пробуем на практике последние обновления
ВидеоОбновления
Netpeak Spider 3.1: SEO-отчёты нового поколения
ВидеоОбновления
Как легко проверить код ответа сервера? Понятно о HTTP status code
ВидеоМануалы
Netpeak Checker 3.1: разгадать капчу? Проще простого
ВидеоОбновления
Alex Alexis
28 января 2018
Здравствуйте. А разве ошибка PageRank: перенаправление, если это канонические урлы?
Привет!) У нас есть 3 вида ошибок по критичности, PageRank: перенаправление относится к ошибкам средней критичности или «предупреждения». Вам нужно обратить внимание на эту ошибку, если вы находите ссылки на старые страницы, с которых настроено перенаправление, внутри вашего сайта (с http на https, например), следуя всем инструкциям индексации, так как это по меньшей мере расходование краулингового бюджета.Вы можете связаться с нами также через чат на нашем сайте или почту [email protected], если у вас ещё остались вопросы ;)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Есть 10 интернет-магазинов одной тематики. У всех магазинах одинаковые страницы в меню (Об оплате, О доставке, О скидках, Контакты, Оферта) и в футере (Как оформить заказ, Про статусы заказов и т.д.). 
Около 6 ссылок в меню и около 15 ссылок в футере на страницы из 100% идентичным контентом. 

Для Гугла это по сути 100% дубли. Все эти страницы закрыты тегом <meta name="robots" content="noindex, nofollow">. При сканировании Netpeak Spider показывает их как "Висячий узел"... Что бы Вы посоветовали сделать в таком случае? Может лучше открыть эти 20 страниц для индексации ПС, пусть даже это 100% дубли по контенту или как быть? Заранее благодарен за ответ
Здравствуйте, Владимир!)

Вы закрыли их от индексации, но это не решение проблемы, это уход от неё.

Мы советуем создать уникальный контент для каждого интернет-магазина и открыть эти страницы для индексации поисковыми системами. SEO является оптимизацией для поисковых систем, которая давно включает в себя и контентную оптимизацию.

Насчёт ошибки «Висячий узел»: мы показываем её в вашем случае, так как инструкции индексации указывают именно на это. С этой страницы для поискового бота нет исходящих ссылок, что является как раз «висячим узлом».

Скажите, пожалуйста, есть ли у вас ещё вопросы?
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Валерий Павлов
29 марта 2018
Версия 3 заслуживает самых бурных аплодисментов.
Огромное спасибо за качественный инструмент!
Останусь с вами пока на ближайший год.
У меня вопрос по Pagerank: висячие узлы.
После анализа одного сайта обнаружилось около 10% таких страниц.
Это страницы скачивания файла, страницы пагинации.
Страницы пагинации закрыты в метатегом robots с атрибутами "noindex,nofollow".
А страницы для скачивания файла закрыты в директивой в файле robots.txt.
1) Почему эти страницы имеют Высокую критичность?
2) Действительно это оказывает негативное влияние на сайт в целом, и это необходимо исправлять?
Буду благодарен за ответ!
Здравствуйте, Валерий!)

Спасибо вам большое за приятные слова, нам очень приятно слышать, что вы доверяете нашим инструментам.

Давайте по очереди отвечу на ваши вопросы.

1. Ошибка «Висячий узел» всегда имеет высокую критичность. Независимо от причины её появления.
2. В вашем случае страницы для скачивания файлов правильно закрыты, а на страницах пагинации лучше поставить только "noindex". Запрещать поисковым роботам переходить на страницы скачивания тоже можно таким же способом — "noindex". 

Скажите, пожалуйста, есть ли у вас ещё вопросы?
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Вот это шок-контент подоспел на блог!) Говорят, что ещё wiki можно разных локалей парсить Netpeak Spider'ом, чтобы находить там дропчики 
Нельзя лайкать самого себя
5Нравится
Ответить
Поделиться
Скопировано
Отличная статья про коды ответа сервера.
Хотя их на самом деле больше, но описанные выше вылетают чаще всего.
500 ошибка - самая неопознанная. В таких случаях надо смотреть логи сервера.
Привет, Максим! Спасибо за твой комментарий. Я действительно взял только самые популярные коды, чтобы сделать максимально полезно и понятно для каждого человека, который читает наш блог ;) Кстати, а ты нашёл что-то новое в статье? Может информация о 304 коде или возможности контекстного меню для таблицы в Netpeak Spider?
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Aleksandr Gramm
30 января 2020
Интересный кейс. Спасибо.
Спасибо за позитивный отзыв!

Дальше будет ещё круче, так что следите за обновлениями ;)
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
Seoquick Seoquick
3 февраля 2020
Интересно как. На самом деле техническая оптимизация сайта с каждым годом играет все более важную роль в поисковой оптимизации. Исправление ошибок на сайте может обеспечить вам значительный прирост позиций, практически без заметных вливаний денежных средств. Ну а если учесть, что влияние ссылочного фактора постоянно снижается, то проверка сайта на ошибки и их исправление просто необходимо. На самом деле для работы с сайтами существует огромное количество онлайн сервисов.
Я свой голос отдаю всегда за комплексный подход, когда SEO-специалист учитывает все 3 направления (ссылки, контент и техничка). Не люблю недооценивать какое-либо из них, потому что от ниши к нише всё меняется, нет единой таблетки для всех. Да и поисковые системы регулярно выпускают обновления алгоритмов, которые то повышают, то понижают значимость конкретного фактора в общей картине.

Насчёт сервисов, которые помогают работать с сайтами, полностью согласен, их огромное количество, мы одни из них ;) Я в своей статье хотел показать, что некоторые задачи можно сделать самому, используя минимум ресурсов ;)

Спасибо за ваш комментарий, мне приятно, что вам было интересно!
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Seoquick Seoquick
3 февраля 2020
Еще нужно обратить внимание нато, что было бы странно обновить статью и оставить старую дату публикации. Поэтому для всех актуализированных статей задавайте новые даты — на месяц раньше текущей даты. Так обновленные статьи не перебивают в ленте только опубликованные материалы, но сигнализируют поисковикам, что надо бы их переиндексировать. Спасибо за полезный материал, интересно было читать.
Полностью согласен, а если даты в тексте на странице нет, то не забыть про заголовок Last-Modified, если он автоматически не обновляется. Кстати, Михаил Шакин делал небольшой эксперимент на эту тему: http://shakin.ru/seo/publication-date.html

Он это тестировал ещё давно, но говорят, что до сих пор актуально ;)

Приятно, что вы позитивно отозвались о моей статье, спасибо! Дальше будет ещё много полезного ;)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Viacheslav Varenia
19 февраля 2020
Можно я добавлю свои 5 центов? Вот тут "Данные по дате публикации, количеству просмотров и комментариев я получаю с помощью функции парсинга исходного кода" просится ссылка на то чем и как это делать.
С удовольствием делюсь материалами, которые мы готовили по этой теме :)

1. Видео моего вебинара (временная метка сразу на нужном месте):
https://www.youtube.com/watch?v=8TFEKwKE5d8&t=1225s
2. Конспект этого вебинара:
https://webpromoexperts.net/blog/parsing-kakie-marketingovye-zadaci-on-resaet/
3. Огромная подборка кейсов по парсингу с использованием Netpeak Spider:
https://www.seonews.ru/analytics/75-tipov-dannykh-kotorye-mozhno-sparsit-v-netpeak-spider-i-netpeak-checker/
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Sergey Petrov
25 февраля 2020
1. Спорный момент насчет удаления статей. Пусть себе висят. Они каши не просят. Удалять любые страницы - последнее дело. Особенно если с них проставлены ссылки на группы товаров.
2. Если статьи вообще не приносят трафик, они все равно нужны. Чем больше тематических материалов на сайте, тем сильнее сигнал для гугла, что сайт является экспертным в своей тематике.
Спасибо за комментарий, Сергей!

1. Если таких статей десятки, они неактуальные или не приносят никакой пользы для целевой аудитории больше, посмотрите на запросы из Search Console, по которым показывались эти страницы, если там нерелевантные запросы, или их вовсе нет, то они могут принести только негативный эффект (плохие поведенческие факторы или расходование краулингового бюджета, если это большой проект и таких статей много).

2. Если они не приносят трафик уже долгий период времени, то с ними что-то не так. Я не советую плодить тематические материалы, если они некачественные. Google тоже не просто так не ведёт на них трафик)

Ну и всё таки я советую удалять только в действительно крайних случаях:

1. Когда их нет смысла актуализировать. Например, любые статьи-мануалы по Google+. Они не станут актуальными, так как социальная сеть уже закрыта.

2. Если они получали очень низкий, практически нулевой трафик и их тематика не соответствует запросам вашей ЦА. Ведь это идёт в разрез тематике сайта. Если ваша ЦА это SEO-специалисты, будет ли полезно для мнимой «экспертности» сайта поддерживать наличие статей о фишках оффлайн-рекламе (креативные листовки или ситилайты), если она за полгода набрала 50 просмотров? Я сомневаюсь.

Ну а насчёт вашего мнения, что удаление это последнее дело, да, действительно, последнее, до этого есть столько нюансов поисковой оптимизации, что можно занять себе на год вперёд ????
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Sergey Petrov
25 февраля 2020
Скажите пожалуйста, а что с каждой страницы должна быть исходящая ссылка ? Есть такое требование ?
Я не думаю, что кто-то прописал такое требование, потому что думал, что это и так понятно)

Можете, пожалуйста, подсказать случай, когда на полезной для пользователя страницы может не быть хотя бы одной ссылки?

Если это полезная статья, точно будут какие-то отсылки к источникам данных для утверждений в ней.

Если это товар, точно будет хотя бы ссылка на покупку.

Единственный случай, когда я могу себе это представить, это лендинг, где есть только контактные данные или форма обратной связи. Но тут не об этом речь, для таких случаев не нужен расчёт внутреннего PageRank.

Потому подскажите, пожалуйста, а когда логично и полезно для пользователя не ставить ни одной ссылки на странице?
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Евгений Кобзарь
26 февраля 2020
Привет.
Пункт 1.4 можно сделать с помощью екселя.
выделить столбец с урлом, выбрать "текст по столбцам", указать раделитель "/', оставить столбец с доменом. С помощью поиска и змены, найти "www." заменить на ни что. Выделить столбец с хостом, удалить дубли.
Минус такого метода - остаются поддомены, но в целом быстро решается.
Да, звучит нормально, но не весь получается 1.4, а только извлечение хостов из полных URL.

Я показывал на примере Google таблиц, там есть ограничение в 5 миллионов ячеек, мог в него упереться, потому делал немного иначе, но и ваш вариант рабочий :)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Евгений Кобзарь
26 февраля 2020
Google sheets не использую для такой работы, валится, если много данных, Ексель себя отлично чувствует при больших объемах.

Недостаток описанного метода, что вы получаете на выходе дроп с непонятной тематикой. Как бы зачем хороший дроп с не нужной тебе тематикой, да, что то можно переиграть, сменить тематику, но все же.

А вообще, чем больше таких мануалов, тем меньше дропов в сети ((
Дааа, насчёт тематики правда. Я правда думал над идеей, чтобы по API отдавать архивную копию главной страницы в Google NLP, получать главные сущности оттуда, но это лишь идея, не доходил до практической проверки.

Ну а насчёт того, что меньше дропов в сети, ну да, всё потихоньку уходит в «старые» способы, что тут скажешь)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Евгений Кобзарь
26 февраля 2020
на счет =REGEXMATCH(A2, “.edu|.gov|.mil|.ua|.jp|.cn|.xxx”)
отсекаются именно домены ua? com.ua и остальные в ua зоне остаются?
gov , edu - отсекаются и gov.ua и gov просто?
Отсекаются все, где есть «.ua». Следовательно все «gov.ua», «com.ua», «edu.ua», тоже уходят. Если хотите оставить какой-то определённый, например «com.ua», можно сделать ещё один столбец, в котором только по нему проверять. Тогда нужно будет удалить все, где первая регулярка (edu|.gov|.mil|.ua|.jp|.cn|.xxx) показала TRUE, а вторая(.com.ua) FALSE.

Ну и аналогично для всех подобных случаев, если надо что-то оставить, нужно проверить конкретное условие. Хоть и можно городить сложнее регулярку, но зачем?)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Зачем отсекать весь .ua? нужно ведь только конкретную ua отсекать, так как для регистрации домена в зоне ua нужна торговая марка, для остальных доменных регистрация свободная.
Можно и не отсекать весь .ua, это пример регулярного выражения.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
А специализированные сайты чем плохи?
Всё видно сразу
Регистрация доменного имени в некоторых специализированных зонах требует дополнительных документов, потому просто стоит не забывать об этом + это пример того, как фильтровать по такому признаку.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Вяльцев Андрей
13 марта 2020
Случайно нашёл в списке домен, который я же не стал продлевать))
Не такой уж и большой этот интернет оказывается =)
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Ievgen Kosharuk
21 марта 2020
обнаружил ошибку в регулярке о очистке доменов в гугл доках от ненужных доменных зон. А именно, если ииспользовать вот так точку в регулярке
=REGEXMATCH(A1, ".edu|.gov|.mil|.ua|.jp|.cn|.xxx")
то захватываются домены с вхождением этих буквосочетаний без точки, например
https://milkglass.org/ (mil в домене) или https://edubreaks.in/ (edu в домене)

чтоб такого не было нужно перед всеми точками в регулярке ставить "\", например
=REGEXMATCH(A2, "\.edu|\.gov|\.mil|\.ua|\.jp|\.cn|\.xxx")
Спасибо за внимательность! Вы правы, я не учёл этот момент, исправил в статье =)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Автор забыл только одну важную вещь, дописка объемов текста. Проводили эксперимент с разделом https://www.yalstudio.ru/company_news/ и точно могу сказать, что автор имеет чисто теоретические познания в продвижении раздела новости. Это также подтверждается многократным опытом работы с подобными разделами на клиентских сайтах.

В частности, вообще нет указания на то, что требуется более серьезная работа с объемами текста. Попробуйте дописать каждую новость на сайте уникальным текстом, возможно ли это? У нас получилось только так - https://www.yalstudio.ru/company_news/lendingi-dlya-adria-cats/ Те вставить текстовые затычки.

Второе, про совет с получением внешних ссылок, ну-ну, спорим что нет! Давайте вы попробуете поставить хотя бы 10 внутренних ссылок на каждую свою новость.

Третье, не описаны все работы по индексации этих новых материалов. Также неоднократно ставили эксперимент с данным разделом, Ооооооо это отдельная большая работа, особенно если стоит задача все сделать естественным образом и дать поисковику самому проиндексировать новые материалы.

Четвертое, для Гугла, важно чтобы весь раздел был наполнен материалами большого объема. 

Ну и куча других моментов которые не учел автор.
Добрый день, Алексей!)

Спасибо за ваш комментарий! Давайте я тоже пошагово отвечу на ваш комментарий:

1. Речь в моём посте идёт конкретно про дооптимизацию ПОСТОВ на блоге, т.е. объёмных информационных материалов, где почти всегда можно найти дополнительную информацию для добавления в текст страницы. Ссылка на кейс оптимизации ЛЕНДИНГА не совсем тут релевантна, хоть я и отлично понимаю ваш посыл, что в некоторых случаях добавить текст очень сложно, но всё таки это больше о добавлении его на ЛЕНДИНГИ, не в статьи.

2. Мы регулярно ставим внутренние ссылки с новых постов на старые и обратно, где это уместно, потому 10 ссылок не так сложно набрать, если есть уже существенный каталог материалов. Непросто держать в голове все темы постов, потому у нас есть реестр, куда редакторки нашего блога всегда могут посмотреть, чтобы найти нужную страницу для перелинковки. 

Не понимаю вашего скептицизма насчёт получения внешних ссылок, это стандартная задача в ходе продвижения блога. Мы развиваем партнёрские отношение с множеством блогов в смежной тематике, что уже помогает получить некоторую часть ссылок, у многих наших пользователей есть свои блоги, где они часто нас упоминают, уверен, что и в других тематиках тоже применимы эти способы.

3. Да, действительно, индексацию новых материалов не описал в этой статье, вот как раз пример дооптимизации контента =)

4. Я согласен с тем, что для эффективного продвижения блога необходимо наличие как можно большего количества материалов на блоге, но это уже речь о продвижении всего блога, а в статье я говорил лишь о поиске и дооптимизации старых статей, потому хоть я и согласен, что в плане продвижения количеству задач нет предела, но всё же многие не делают и того, что описал я в статье, давайте начинать с малого, а в следующих статьях поговорим о более высоких материях индексации, канониклов и контентной наполненности всего блога.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Автор забыл только одну важную вещь, дописка объемов текста. Проводили эксперимент с разделом https://www.yalstudio.ru/company_news/ и точно могу сказать, что автор имеет чисто теоретические познания в продвижении раздела новости. Это также подтверждается многократным опытом работы с подобными разделами на клиентских сайтах.

В частности, вообще нет указания на то, что требуется более серьезная работа с объемами текста. Попробуйте дописать каждую новость на сайте уникальным текстом, возможно ли это? У нас получилось только так - https://www.yalstudio.ru/company_news/lendingi-dlya-adria-cats/ Те вставить текстовые затычки.

Второе, про совет с получением внешних ссылок, ну-ну, спорим что нет! Давайте вы попробуете поставить хотя бы 10 внутренних ссылок на каждую свою новость.

Третье, не описаны все работы по индексации этих новых материалов. Также неоднократно ставили эксперимент с данным разделом, Ооооооо это отдельная большая работа, особенно если стоит задача все сделать естественным образом и дать поисковику самому проиндексировать новые материалы.

Четвертое, для Гугла, важно чтобы весь раздел был наполнен материалами большого объема. 

Ну и куча других моментов которые не учел автор.
Ещё раз спасибо за ваш комментарий, Алексей!

Если вы хотите поделиться вашим опытом или интересным кейсом после проделанной работы вашей студии, приглашаю вас написать нам гостевой материал: https://netpeaksoftware.com/ru/blog/kak-napisat-gostevoy-post-na-nashem-bloge
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
Valentin Zheliezniak
30 октября 2020
Добрый день. Подскажите пожалуйста какие настройки нужно провести, чтобы Netpeak Spider не сканировал результаты фильтрации на сайте. 
URL адреса содержащие, к примеру: 
/?subject=
/?remove_item=
и т.д.
Привет, Валентин!

Для вашей задачи идеально подойдут правила сканирования. В настройках на вкладке «Правила» задайте исключение результатов, которые содержат параметры фильтрации. Вот пример, по вашему условию:
 
https://img.netpeaksoftware.com/maloi/jd0trGp2ps.png

Обратите внимание, что я согласовываю правила по логике «ИЛИ», а также включил переход по отфильтрованным правилами ссылкам, вдруг на таких страницах фильтрации будут уникальные ссылки, которые иначе не найти на сайте.

Попробуйте и скажите, пожалуйста, помог ли вам мой совет =)
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано