Kosta BankovskiProduct Marketing Manager в Netpeak Software
29 января 2018
Alex Alexis
28 января 2018
Здравствуйте. А разве ошибка PageRank: перенаправление, если это канонические урлы?
Привет!) У нас есть 3 вида ошибок по критичности, PageRank: перенаправление относится к ошибкам средней критичности или «предупреждения». Вам нужно обратить внимание на эту ошибку, если вы находите ссылки на старые страницы, с которых настроено перенаправление, внутри вашего сайта (с http на https, например), следуя всем инструкциям индексации, так как это по меньшей мере расходование краулингового бюджета.Вы можете связаться с нами также через чат на нашем сайте или почту [email protected], если у вас ещё остались вопросы ;)
Владимир Проков
29 марта 2018
Есть 10 интернет-магазинов одной тематики. У всех магазинах одинаковые страницы в меню (Об оплате, О доставке, О скидках, Контакты, Оферта) и в футере (Как оформить заказ, Про статусы заказов и т.д.). Около 6 ссылок в меню и около 15 ссылок в футере на страницы из 100% идентичным контентом. Для Гугла это по сути 100% дубли. Все эти страницы закрыты тегом <meta name="robots" content="noindex, nofollow">. При сканировании Netpeak Spider показывает их как "Висячий узел"... Что бы Вы посоветовали сделать в таком случае? Может лучше открыть эти 20 страниц для индексации ПС, пусть даже это 100% дубли по контенту или как быть? Заранее благодарен за ответ
Здравствуйте, Владимир!) Вы закрыли их от индексации, но это не решение проблемы, это уход от неё. Мы советуем создать уникальный контент для каждого интернет-магазина и открыть эти страницы для индексации поисковыми системами. SEO является оптимизацией для поисковых систем, которая давно включает в себя и контентную оптимизацию. Насчёт ошибки «Висячий узел»: мы показываем её в вашем случае, так как инструкции индексации указывают именно на это. С этой страницы для поискового бота нет исходящих ссылок, что является как раз «висячим узлом». Скажите, пожалуйста, есть ли у вас ещё вопросы?
Валерий Павлов
29 марта 2018
Версия 3 заслуживает самых бурных аплодисментов. Огромное спасибо за качественный инструмент! Останусь с вами пока на ближайший год. У меня вопрос по Pagerank: висячие узлы. После анализа одного сайта обнаружилось около 10% таких страниц. Это страницы скачивания файла, страницы пагинации. Страницы пагинации закрыты в метатегом robots с атрибутами "noindex,nofollow". А страницы для скачивания файла закрыты в директивой в файле robots.txt. 1) Почему эти страницы имеют Высокую критичность? 2) Действительно это оказывает негативное влияние на сайт в целом, и это необходимо исправлять? Буду благодарен за ответ!
Здравствуйте, Валерий!) Спасибо вам большое за приятные слова, нам очень приятно слышать, что вы доверяете нашим инструментам. Давайте по очереди отвечу на ваши вопросы. 1. Ошибка «Висячий узел» всегда имеет высокую критичность. Независимо от причины её появления. 2. В вашем случае страницы для скачивания файлов правильно закрыты, а на страницах пагинации лучше поставить только "noindex". Запрещать поисковым роботам переходить на страницы скачивания тоже можно таким же способом — "noindex". Скажите, пожалуйста, есть ли у вас ещё вопросы?
Kosta BankovskiProduct Marketing Manager в Netpeak Software
22 ноября 2018
Вот это шок-контент подоспел на блог!) Говорят, что ещё wiki можно разных локалей парсить Netpeak Spider'ом, чтобы находить там дропчики
Kosta BankovskiProduct Marketing Manager в Netpeak Software
14 января 2019
Максим Геращенко
14 января 2019
Отличная статья про коды ответа сервера. Хотя их на самом деле больше, но описанные выше вылетают чаще всего. 500 ошибка - самая неопознанная. В таких случаях надо смотреть логи сервера.
Привет, Максим! Спасибо за твой комментарий. Я действительно взял только самые популярные коды, чтобы сделать максимально полезно и понятно для каждого человека, который читает наш блог ;) Кстати, а ты нашёл что-то новое в статье? Может информация о 304 коде или возможности контекстного меню для таблицы в Netpeak Spider?
Kosta BankovskiProduct Marketing Manager в Netpeak Software
31 января 2020
Aleksandr Gramm
30 января 2020
Интересный кейс. Спасибо.
Спасибо за позитивный отзыв! Дальше будет ещё круче, так что следите за обновлениями ;)
Kosta BankovskiProduct Marketing Manager в Netpeak Software
3 февраля 2020
Seoquick Seoquick
3 февраля 2020
Интересно как. На самом деле техническая оптимизация сайта с каждым годом играет все более важную роль в поисковой оптимизации. Исправление ошибок на сайте может обеспечить вам значительный прирост позиций, практически без заметных вливаний денежных средств. Ну а если учесть, что влияние ссылочного фактора постоянно снижается, то проверка сайта на ошибки и их исправление просто необходимо. На самом деле для работы с сайтами существует огромное количество онлайн сервисов.
Я свой голос отдаю всегда за комплексный подход, когда SEO-специалист учитывает все 3 направления (ссылки, контент и техничка). Не люблю недооценивать какое-либо из них, потому что от ниши к нише всё меняется, нет единой таблетки для всех. Да и поисковые системы регулярно выпускают обновления алгоритмов, которые то повышают, то понижают значимость конкретного фактора в общей картине. Насчёт сервисов, которые помогают работать с сайтами, полностью согласен, их огромное количество, мы одни из них ;) Я в своей статье хотел показать, что некоторые задачи можно сделать самому, используя минимум ресурсов ;) Спасибо за ваш комментарий, мне приятно, что вам было интересно!
Kosta BankovskiProduct Marketing Manager в Netpeak Software
3 февраля 2020
Seoquick Seoquick
3 февраля 2020
Еще нужно обратить внимание нато, что было бы странно обновить статью и оставить старую дату публикации. Поэтому для всех актуализированных статей задавайте новые даты — на месяц раньше текущей даты. Так обновленные статьи не перебивают в ленте только опубликованные материалы, но сигнализируют поисковикам, что надо бы их переиндексировать. Спасибо за полезный материал, интересно было читать.
Полностью согласен, а если даты в тексте на странице нет, то не забыть про заголовок Last-Modified, если он автоматически не обновляется. Кстати, Михаил Шакин делал небольшой эксперимент на эту тему: http://shakin.ru/seo/publication-date.html Он это тестировал ещё давно, но говорят, что до сих пор актуально ;) Приятно, что вы позитивно отозвались о моей статье, спасибо! Дальше будет ещё много полезного ;)
Kosta BankovskiProduct Marketing Manager в Netpeak Software
19 февраля 2020
Viacheslav Varenia
19 февраля 2020
Можно я добавлю свои 5 центов? Вот тут "Данные по дате публикации, количеству просмотров и комментариев я получаю с помощью функции парсинга исходного кода" просится ссылка на то чем и как это делать.
С удовольствием делюсь материалами, которые мы готовили по этой теме :) 1. Видео моего вебинара (временная метка сразу на нужном месте): https://www.youtube.com/watch?v=8TFEKwKE5d8&t=1225s 2. Конспект этого вебинара: https://webpromoexperts.net/blog/parsing-kakie-marketingovye-zadaci-on-resaet/ 3. Огромная подборка кейсов по парсингу с использованием Netpeak Spider: https://www.seonews.ru/analytics/75-tipov-dannykh-kotorye-mozhno-sparsit-v-netpeak-spider-i-netpeak-checker/
Kosta BankovskiProduct Marketing Manager в Netpeak Software
26 февраля 2020
Sergey Petrov
25 февраля 2020
1. Спорный момент насчет удаления статей. Пусть себе висят. Они каши не просят. Удалять любые страницы - последнее дело. Особенно если с них проставлены ссылки на группы товаров. 2. Если статьи вообще не приносят трафик, они все равно нужны. Чем больше тематических материалов на сайте, тем сильнее сигнал для гугла, что сайт является экспертным в своей тематике.
Спасибо за комментарий, Сергей! 1. Если таких статей десятки, они неактуальные или не приносят никакой пользы для целевой аудитории больше, посмотрите на запросы из Search Console, по которым показывались эти страницы, если там нерелевантные запросы, или их вовсе нет, то они могут принести только негативный эффект (плохие поведенческие факторы или расходование краулингового бюджета, если это большой проект и таких статей много). 2. Если они не приносят трафик уже долгий период времени, то с ними что-то не так. Я не советую плодить тематические материалы, если они некачественные. Google тоже не просто так не ведёт на них трафик) Ну и всё таки я советую удалять только в действительно крайних случаях: 1. Когда их нет смысла актуализировать. Например, любые статьи-мануалы по Google+. Они не станут актуальными, так как социальная сеть уже закрыта. 2. Если они получали очень низкий, практически нулевой трафик и их тематика не соответствует запросам вашей ЦА. Ведь это идёт в разрез тематике сайта. Если ваша ЦА это SEO-специалисты, будет ли полезно для мнимой «экспертности» сайта поддерживать наличие статей о фишках оффлайн-рекламе (креативные листовки или ситилайты), если она за полгода набрала 50 просмотров? Я сомневаюсь. Ну а насчёт вашего мнения, что удаление это последнее дело, да, действительно, последнее, до этого есть столько нюансов поисковой оптимизации, что можно занять себе на год вперёд ????
Kosta BankovskiProduct Marketing Manager в Netpeak Software
26 февраля 2020
Sergey Petrov
25 февраля 2020
Скажите пожалуйста, а что с каждой страницы должна быть исходящая ссылка ? Есть такое требование ?
Я не думаю, что кто-то прописал такое требование, потому что думал, что это и так понятно) Можете, пожалуйста, подсказать случай, когда на полезной для пользователя страницы может не быть хотя бы одной ссылки? Если это полезная статья, точно будут какие-то отсылки к источникам данных для утверждений в ней. Если это товар, точно будет хотя бы ссылка на покупку. Единственный случай, когда я могу себе это представить, это лендинг, где есть только контактные данные или форма обратной связи. Но тут не об этом речь, для таких случаев не нужен расчёт внутреннего PageRank. Потому подскажите, пожалуйста, а когда логично и полезно для пользователя не ставить ни одной ссылки на странице?
Kosta BankovskiProduct Marketing Manager в Netpeak Software
26 февраля 2020
Євгеній Кобзар
26 февраля 2020
Привет. Пункт 1.4 можно сделать с помощью екселя. выделить столбец с урлом, выбрать "текст по столбцам", указать раделитель "/', оставить столбец с доменом. С помощью поиска и змены, найти "www." заменить на ни что. Выделить столбец с хостом, удалить дубли. Минус такого метода - остаются поддомены, но в целом быстро решается.
Да, звучит нормально, но не весь получается 1.4, а только извлечение хостов из полных URL. Я показывал на примере Google таблиц, там есть ограничение в 5 миллионов ячеек, мог в него упереться, потому делал немного иначе, но и ваш вариант рабочий :)
Євгеній Кобзар
26 февраля 2020
Google sheets не использую для такой работы, валится, если много данных, Ексель себя отлично чувствует при больших объемах. Недостаток описанного метода, что вы получаете на выходе дроп с непонятной тематикой. Как бы зачем хороший дроп с не нужной тебе тематикой, да, что то можно переиграть, сменить тематику, но все же. А вообще, чем больше таких мануалов, тем меньше дропов в сети ((
Дааа, насчёт тематики правда. Я правда думал над идеей, чтобы по API отдавать архивную копию главной страницы в Google NLP, получать главные сущности оттуда, но это лишь идея, не доходил до практической проверки. Ну а насчёт того, что меньше дропов в сети, ну да, всё потихоньку уходит в «старые» способы, что тут скажешь)
Євгеній Кобзар
26 февраля 2020
на счет =REGEXMATCH(A2, “.edu|.gov|.mil|.ua|.jp|.cn|.xxx”) отсекаются именно домены ua? com.ua и остальные в ua зоне остаются? gov , edu - отсекаются и gov.ua и gov просто?
Отсекаются все, где есть «.ua». Следовательно все «gov.ua», «com.ua», «edu.ua», тоже уходят. Если хотите оставить какой-то определённый, например «com.ua», можно сделать ещё один столбец, в котором только по нему проверять. Тогда нужно будет удалить все, где первая регулярка (edu|.gov|.mil|.ua|.jp|.cn|.xxx) показала TRUE, а вторая(.com.ua) FALSE. Ну и аналогично для всех подобных случаев, если надо что-то оставить, нужно проверить конкретное условие. Хоть и можно городить сложнее регулярку, но зачем?)
Євгеній Кобзар
2 марта 2020
Зачем отсекать весь .ua? нужно ведь только конкретную ua отсекать, так как для регистрации домена в зоне ua нужна торговая марка, для остальных доменных регистрация свободная.
Можно и не отсекать весь .ua, это пример регулярного выражения.
Андрей Интерэкспертиза
12 марта 2020
А специализированные сайты чем плохи? Всё видно сразу
Регистрация доменного имени в некоторых специализированных зонах требует дополнительных документов, потому просто стоит не забывать об этом + это пример того, как фильтровать по такому признаку.
Вяльцев Андрей
13 марта 2020
Случайно нашёл в списке домен, который я же не стал продлевать))
Не такой уж и большой этот интернет оказывается =)
Ievgen Kosharuk
21 марта 2020
обнаружил ошибку в регулярке о очистке доменов в гугл доках от ненужных доменных зон. А именно, если ииспользовать вот так точку в регулярке =REGEXMATCH(A1, ".edu|.gov|.mil|.ua|.jp|.cn|.xxx") то захватываются домены с вхождением этих буквосочетаний без точки, например https://milkglass.org/ (mil в домене) или https://edubreaks.in/ (edu в домене) чтоб такого не было нужно перед всеми точками в регулярке ставить "\", например =REGEXMATCH(A2, "\.edu|\.gov|\.mil|\.ua|\.jp|\.cn|\.xxx")
Спасибо за внимательность! Вы правы, я не учёл этот момент, исправил в статье =)
Kosta BankovskiProduct Marketing Manager в Netpeak Software
3 августа 2020
Алексей Радкевич
29 июля 2020
Автор забыл только одну важную вещь, дописка объемов текста. Проводили эксперимент с разделом https://www.yalstudio.ru/company_news/ и точно могу сказать, что автор имеет чисто теоретические познания в продвижении раздела новости. Это также подтверждается многократным опытом работы с подобными разделами на клиентских сайтах. В частности, вообще нет указания на то, что требуется более серьезная работа с объемами текста. Попробуйте дописать каждую новость на сайте уникальным текстом, возможно ли это? У нас получилось только так - https://www.yalstudio.ru/company_news/lendingi-dlya-adria-cats/ Те вставить текстовые затычки. Второе, про совет с получением внешних ссылок, ну-ну, спорим что нет! Давайте вы попробуете поставить хотя бы 10 внутренних ссылок на каждую свою новость. Третье, не описаны все работы по индексации этих новых материалов. Также неоднократно ставили эксперимент с данным разделом, Ооооооо это отдельная большая работа, особенно если стоит задача все сделать естественным образом и дать поисковику самому проиндексировать новые материалы. Четвертое, для Гугла, важно чтобы весь раздел был наполнен материалами большого объема. Ну и куча других моментов которые не учел автор.
Добрый день, Алексей!) Спасибо за ваш комментарий! Давайте я тоже пошагово отвечу на ваш комментарий: 1. Речь в моём посте идёт конкретно про дооптимизацию ПОСТОВ на блоге, т.е. объёмных информационных материалов, где почти всегда можно найти дополнительную информацию для добавления в текст страницы. Ссылка на кейс оптимизации ЛЕНДИНГА не совсем тут релевантна, хоть я и отлично понимаю ваш посыл, что в некоторых случаях добавить текст очень сложно, но всё таки это больше о добавлении его на ЛЕНДИНГИ, не в статьи. 2. Мы регулярно ставим внутренние ссылки с новых постов на старые и обратно, где это уместно, потому 10 ссылок не так сложно набрать, если есть уже существенный каталог материалов. Непросто держать в голове все темы постов, потому у нас есть реестр, куда редакторки нашего блога всегда могут посмотреть, чтобы найти нужную страницу для перелинковки. Не понимаю вашего скептицизма насчёт получения внешних ссылок, это стандартная задача в ходе продвижения блога. Мы развиваем партнёрские отношение с множеством блогов в смежной тематике, что уже помогает получить некоторую часть ссылок, у многих наших пользователей есть свои блоги, где они часто нас упоминают, уверен, что и в других тематиках тоже применимы эти способы. 3. Да, действительно, индексацию новых материалов не описал в этой статье, вот как раз пример дооптимизации контента =) 4. Я согласен с тем, что для эффективного продвижения блога необходимо наличие как можно большего количества материалов на блоге, но это уже речь о продвижении всего блога, а в статье я говорил лишь о поиске и дооптимизации старых статей, потому хоть я и согласен, что в плане продвижения количеству задач нет предела, но всё же многие не делают и того, что описал я в статье, давайте начинать с малого, а в следующих статьях поговорим о более высоких материях индексации, канониклов и контентной наполненности всего блога.
Kosta BankovskiProduct Marketing Manager в Netpeak Software
3 августа 2020
Алексей Радкевич
29 июля 2020
Автор забыл только одну важную вещь, дописка объемов текста. Проводили эксперимент с разделом https://www.yalstudio.ru/company_news/ и точно могу сказать, что автор имеет чисто теоретические познания в продвижении раздела новости. Это также подтверждается многократным опытом работы с подобными разделами на клиентских сайтах. В частности, вообще нет указания на то, что требуется более серьезная работа с объемами текста. Попробуйте дописать каждую новость на сайте уникальным текстом, возможно ли это? У нас получилось только так - https://www.yalstudio.ru/company_news/lendingi-dlya-adria-cats/ Те вставить текстовые затычки. Второе, про совет с получением внешних ссылок, ну-ну, спорим что нет! Давайте вы попробуете поставить хотя бы 10 внутренних ссылок на каждую свою новость. Третье, не описаны все работы по индексации этих новых материалов. Также неоднократно ставили эксперимент с данным разделом, Ооооооо это отдельная большая работа, особенно если стоит задача все сделать естественным образом и дать поисковику самому проиндексировать новые материалы. Четвертое, для Гугла, важно чтобы весь раздел был наполнен материалами большого объема. Ну и куча других моментов которые не учел автор.
Ещё раз спасибо за ваш комментарий, Алексей! Если вы хотите поделиться вашим опытом или интересным кейсом после проделанной работы вашей студии, приглашаю вас написать нам гостевой материал: https://netpeaksoftware.com/ru/blog/kak-napisat-gostevoy-post-na-nashem-bloge
Kosta BankovskiProduct Marketing Manager в Netpeak Software
30 октября 2020
Valentin Zheliezniak
30 октября 2020
Добрый день. Подскажите пожалуйста какие настройки нужно провести, чтобы Netpeak Spider не сканировал результаты фильтрации на сайте. URL адреса содержащие, к примеру: /?subject= /?remove_item= и т.д.
Привет, Валентин! Для вашей задачи идеально подойдут правила сканирования. В настройках на вкладке «Правила» задайте исключение результатов, которые содержат параметры фильтрации. Вот пример, по вашему условию: https://img.netpeaksoftware.com/maloi/jd0trGp2ps.png Обратите внимание, что я согласовываю правила по логике «ИЛИ», а также включил переход по отфильтрованным правилами ссылкам, вдруг на таких страницах фильтрации будут уникальные ссылки, которые иначе не найти на сайте. Попробуйте и скажите, пожалуйста, помог ли вам мой совет =)
Kosta BankovskiProduct Marketing Manager в Netpeak Software
10 февраля 2021
Aleksandr Gramm
10 февраля 2021
Кстати, эту теорию буквально на днях подтвердил и Джон Мюллер (аналитик Гугл). Это, конечно, не так сильно прямо работает, как кажется. Но смысл в этом есть. Поэтому часто удивляют советы SEO специалистов по поводу "очистки" сайта от "ненужного контента". По опыту, уже могу сказать, что обновление и перелинковка даже нулевых статей позитивно отображается на траффике сайта. Конечно, нужно попыхтеть. Но прирост в 50-250% без всяких танцев с бубнами, линк билдинга и других способов спама, как бы намекает об эффективности. Причем речь не идет о просто траффике, речь идет именно о ценном траффике. То есть, кроме прироста траффика есть соответствующий рост конверсий и финансовых показателей.
А поделитесь, пожалуйста, ссылкой на материал, о котором вы говорите, чтобы и я был в курсе, о какой именно теории)
Kosta BankovskiProduct Marketing Manager в Netpeak Software
10 февраля 2021
Aleksandr Gramm
10 февраля 2021
Конечно, вот https://www.seroundtable.com/google-site-reputation-topic-area-30889.html
Да, тут опять же говорится про расширение материалов вокруг определённой темы, которые могут помочь пользователям, и это действительно так! Но мой посыл: удалять в первую очередь некачественные статьи, которые легче переписать чем дооптимизировать, или те, которые уже неактуальные. Например, есть статья, где вы описывали, как почистить мышку с колёсиком внутри, и за год ни одного перехода из поиска, или даже показов нет, а вы стали продавать не технику, а товары для киберспорта. Но я бы хотел подметить, что мой прошлый пример со статьями про оффлайн-маркетинг на блоге о SEO не совсем хороший, может это косвенно и может кому-то помочь, потому лучше поменяю на сравнение блога для SEO-специалистов и статьи на нём из далёкого прошлого про установку розетки возле рабочего места. Так будет будет понятнее, что я имею в виду, когда говорю о непопадании в тематику. Если есть целая категория статей, которые не совсем попадают в тематику, это может расширить семантику, по которой сайт считается экспертным, но единичные материалы не дадут необходимого эффекта.
Андрей Ти
2 апреля 2021
Костя, спасибо Вам за классный мануал. Подскажите пожалуйста, а как Вы удаляете сабдомен из урла. Я заметил такое, что когда я проверяю сайты на IP, у сабдомена IP может не быть а у корневого хоста он есть. Поделитесь формулой для г.таблиц пожалуйста :)
Да, это хороший вопрос, лучше всего с этим справляется параметр «Корневой домен» из группы WHOIS в Netpeak Checker. Но можно и в таблицах сделать, я, кстати, делал даже не через регулярное выражение, а просто считал, сколько точек в хосте, если число больше либо равно 3, то сразу удалял такие строки. Можно сделать это через SPLIT по разделителю «.», если получилось больше 3 и больше, то удаляю строку.
Євгеній Кобзар
2 апреля 2021
Хзб чи шукают таким чином зараз дропи, бо ще рік тому знайти щось вже було важко, а зараз я і перестав шукать, так як все вігрібають дуже швидко, час витрачаєш, а результат - 0.
Я в феврале делал аналогичный процесс для записи англоязычного видео, нашлось пару сотен доменов, конечно, качество оставляет желать лучшего, но тут всё в ваших руках: сканируйте разные сайты, максимально автоматизируйте обработку результатов и тд, это всё ещё возможный дополнительный способ =)
Євгеній Кобзар
3 апреля 2021
Найти можна, згодел, але по перше буде те, що нікому не треба, а ящко не треба, то там дропи какашки, а якщо знайти норм, то не факт, що ти в результате станеш його власником. Витрачені ресурси зараз цього не варті.
Ну всё-таки я бы не был так категоричен. Конечно, сканируя bbc, foxnews и такие новостники, мало нового найдёшь, но можно же брать локальные СМИ и каталоги. В большом масштабе нет такого хорошего дропа, на который бы не ссылались хотя бы пару больших сайтов, надо только найти те самые большие сайты, пусть даже методом перебора =)
Илья Черепинец
13 мая 2021
Тут главное не забывать и парсить только на региональных проксях
Да, действительно, хорошее уточнение! Не для всех задач нужны прокси с конкретным гео, но лучше не забывать =)
roman mikhol
14 мая 2021
Все дачники знают как +правильно +сажать клубнику. Использовать черное мульчирующее агроволокно для клубники. В интернете его ищут так: агроволокно +черное, агроволокно +мульчирующее, агроволокно +для мульчирования почвы, агроволокно +для клубники. Netpeak поможет собрать такие запросы? А ведь в этом же семантическом кластере есть и +белое +агроволокно +укрывное, разной плотности, в рулонах, на метраж, оптом. И это не все :)
Конечно, поможет =) А если нужно спарсить сами результаты, а не только их количество, можно использовать Netpeak Checker и собирать выдачу даже по самым сложным запросам. На эту тему есть отдельное видео, вот ссылка на нужную его часть с меткой времени: https://youtu.be/SNcxkt3qZwc?t=220
Нравится комментарий?
Чтобы поставить комментарию отметку «Нравится», пожалуйста, зарегистрируйтесь (в этом случае вы получите массу плюшек от Netpeak Software) или войдите в свой аккаунт.
Хотите ответить на комментарий?
Чтобы ответить на комментарий к посту, пожалуйста, зарегистрируйтесь (в этом случае вы получите массу плюшек от Netpeak Software) или войдите в свой аккаунт.