Этот пользователь не опубликовал ещё ни одного поста. Мы помогаем изо всех сил — теперь дело за автором!
Aleksandr GrammF5 Studio
11 января 2019
Пока что инструмент в процессе отладки и это явно заметно. Особенно интересно как выбирается каноническая страница и потом в дупликаты уходит половина страниц 20-и страничного сайта. Также любопытно и то, что после внесения изменений и повторной отправки страниц на индексацию не происходит ничего, висят старые даты обхода ботом. Но в целом очень полезный и интересный, если, конечно, учитывать особенности. Например, по позициям запросов отображаются лучшие позиции. то есть, условно, в Сингапуре вы отображаетесь по этому запросу на 3-й позиции. Но целевая страна у вас Казахстан. А тут вы, в реальности, на 50-й. Поэтому желательно скачивать сразу несколько отчётов и делать что-то вроде кросс-анализа.
Aleksandr GrammF5 Studio
23 января 2019
по показателям «Уровень E-A-T» Извините, не совсем понял, откуда эти показатели брались. Шума много было. Не знаю, как в Украине, но у многих заказчиков посыпались сайты очень далекие от медицинской тематики. И отскока нет, траффик остаётся заметно низким. Причем установить какую-то связь сложно. У кого-то куча бэклинков с невысоким уровнем качества, у кого-то UI/UX хромает. Моё мнение, тут не обязательно надо искать проблему в сайтах, ссылках. Гугл также может выкатывать обновления с ошибками, что приводит к определённым казусам. Потом потихоньку исправляет и траффик идёт "в гору".
Aleksandr GrammF5 Studio
24 января 2019
Viacheslav Varenia
23 января 2019
"E-A-T" - терминология из Руководства Google для асессоров. Наблюдая за обсуждениями на многих SEO-форумах мы заметили, что многие понимают это очень упрощенно — как наличие на сайте только информации об авторе (докторе), контактах сайта и автора контента. На самом деле Руководство — это документ, содержащий принципы того, как мог бы работать алгоритм Google. Только вот между словами "мог бы" и "работает" две большие разницы. Руководство — это то, какими бы Google хотел видеть качественные сайты. Изучая этот вопрос, мы пришли к мнению, что показатель E-A-T должен иметь оценку. На основе критериев, описанных в Руководстве, мы ввели систему оценки, присваивая каждому критерию определенный балл. Мы понимаем, что наша система оценки имеет определенную долю субъективизма, и потому внизу статьи написали дисклеймер: "результаты исследования основаны на показателях сайтов из выборки авторов и могут существенно отличаться от ваших данных". Я не согласен с вами, что не нужно искать проблему в сайтах. Во многих случаях проблема именно в сайтах. Другое дело, что Google может менять факторы ранжирования и их веса, — в этой ситуации остается только догадываться, что произошло. Но эксперименты в любом случае нужны ибо только опытным путём, чаще всего, можно выявить общие признаки.
Спасибо за развернутый ответ. Да, я читал Руководство. Как пишет основатель одного агенства все оценки субъективные. Это к тому, что мы не знаем какие показатели как оцениваются самим Google и оцениваются ли вообще. Я писал о поиске некой общей проблемы. Хотя и тут очевидно. Последние несколько лет (а прошлый год усиленно) Google активно борется с некачественными бэклинками. Активно продвигается тема natural language processing (что связано с AI и machine learning). Однако все это работает в связке с десятком факторов (хотя указывают, что Google использует 100-200 факторов ранжирования).
Aleksandr GrammF5 Studio
24 января 2019
Viacheslav Varenia
24 января 2019
"Активно продвигается тема natural language processing (что связано с AI и machine learning)". Это да, но, насколько я знаю, API natural language пока не поддерживает русский. "Однако все это работает в связке с десятком факторов". Нет, конечно сигналов используется намного больше. Тут вы ошибаетесь.
Я сомневаюсь, что на сегодняшний день Google способен адекватно учитывать и рассчитывать больше факторов, чем 100. Плюс какие-то факторы, например, протокол https, совершенно незначительные. Мне сложно судить о русско- и украиноязычных сегментах, так как уже несколько лет не работаю в них, и висят только старые тестовые площадки на которые нет ни сил, ни желания чтобы привести к каким-то данным. Впрочем, я не претендую на истину :) Конечно, могу ошибаться. В любом случае Ваш эксперимент интересный и нужный. Поэтому большое спасибо. Один из немногих ресурсов, где можно найти действительно интересную и полезную информацию.
Aleksandr GrammF5 Studio
6 июня 2019
Спасибо. Очень интересная статья (и ссылочка полезная на SILO). Могу только подтвердить, хорошая структура и внутрення перелинковка дают очень большой плюс в продвижении сайта. Пока что ищу разумные причины, чтобы объяснять это аргументированно. Вопрос не только в том, что мы облегчаем поисковым системам понимание сайта (контента) и помогаем лучше индексировать, а значит, формировать релевантную выдачу. Мне кажется есть и дополнительные факторы.
Aleksandr GrammF5 Studio
19 июня 2019
Позволю себе пару комментариев, в основном по amp Google, потому что больше сталкиваюсь с ними. 1) Сильно урезан функционал страниц. Поэтому не рекомендовал бы для главных страниц, каталогов/рубрик. Если есть статья, которую надо подвинуть норм. 2) Google ставит amp страницы вашего сайта выше обычных страниц. Учитывайте это в SEO продвижении и проверяйте какой контент вы отправляете в amp. Чтобы потом не было мучительно больно за то, что "что-то не попало". 3) Если кто-то поделится линком на amp страницу, то может быть такая трабла, что после смены на обычный урл, посетителей все равно будет редиректить на amp. 4) Собственно Google отдает кеш, а не актуальную страницу, что может быть критично, когда меняется контент страницы. От себя добавлю, что не рекомендую для икоммерс (каталоги, страницы продукта), потому что функционал чекаута не поддерживается. Редирект с amp на обычную страницу пугает многих наших людей, потому что какой там урл никто не смотрит. А выглядит такой редирект, как сайт-мошенник. Но всякие продвинутые блоговоые страницы, инфо, статьи, лонгриды, энциклопедии и т.п. то вполне норм. Очень удобно, когда быстро загружается нужная инфо.
Aleksandr GrammF5 Studio
10 июля 2019
For example, if a website is constantly getting links with the anchor text “dog collar”, Google is eventually going to determine that your site is about dog collars. Точнее, Гугл поймет, что страница о собачьих ошейниках. Сайт может быть посвящен товарам для собак вообще, для животных вообще. Но анкор это сигнал, что страница на которую ссылается, об ошейниках. Впрочем, это может быть сайт об ошейниках и ссылка может быть на главную страницу (равно как и на каталог, страницу конкретного ошейника, страницу блога об ошейниках и т.п.).
Aleksandr GrammF5 Studio
17 июля 2019
Спасибо. Все по делу очень четко разложили.
Aleksandr GrammF5 Studio
12 сентября 2019
Добрый день. Очень круто. Соглашусь, по базе очень полезная фича. Вообще пробовал спайдер во время бесплатного периода и просто наслаждался (это с учетом, что я могу сравнивать с другими инструментами). К сожалению, да, к моему личному сожалению, направление маркетинга в нашей деятельности ограничено (пока что). Поэтому мне остается только ждать и люто рекомендовать инструмент знакомым.
Aleksandr GrammF5 Studio
9 января 2020
Неплохой гайд. Спасибо.
Aleksandr GrammF5 Studio
30 января 2020
Интересный кейс. Спасибо.
Aleksandr GrammF5 Studio
31 января 2020
Kosta Bankovski
31 января 2020
Спасибо за позитивный отзыв! Дальше будет ещё круче, так что следите за обновлениями ;)
На мой взгляд, один из интереснейших ресурсов. Поэтому тщательно слежу за любыми обновлениями.
Aleksandr GrammF5 Studio
19 февраля 2020
Seoquick Seoquick
3 февраля 2020
Еще нужно обратить внимание нато, что было бы странно обновить статью и оставить старую дату публикации. Поэтому для всех актуализированных статей задавайте новые даты — на месяц раньше текущей даты. Так обновленные статьи не перебивают в ленте только опубликованные материалы, но сигнализируют поисковикам, что надо бы их переиндексировать. Спасибо за полезный материал, интересно было читать.
Каким образом "сигнализируют"? Мне интересна техническая сторона.
Aleksandr GrammF5 Studio
19 февраля 2020
Интересно, практически все использую, но с датами не играюсь. Если уж сильно хочется, то вручную отправляю через Google Search Console на реиндекс. Сейчас, как раз, работаю с блогом веб студии. Результат позитивный, отмечается стабильный рост позиций и траффика. Плюс, попутно, решаю проблему "проходящего" траффика, чтобы пользователи не покидали сайт вместе со статьей.
Aleksandr GrammF5 Studio
27 февраля 2020
Сталкивались на Magento2 с "атакой гуглоботов". На самом деле так работал плагин одной известной компании из-за чего возрастала нагрузка на сервер. Очень рекомендую смотреть логи сервера, хотя бы периодически и знать техническую составляющую платформы, на которой сайт.
Aleksandr GrammF5 Studio
27 февраля 2020
Вряд ли кто-то знает всю картину по ранжированию. Там несколько алгоритмов плюс, то что многие понять не могут, это то, что в системе ранжирования есть система предсказания. Грубо говоря, методом научного тыка. Иногда (для новых запросов, а их до 30%) это вообще случайным образом происходит. Но они точно знают, что не входит в ранжирование.
Aleksandr GrammF5 Studio
20 марта 2020
На самом деле методов манипуляций больше. По объективным причинам расписывать их не буду, да и для большинства это все равно закончится никак (ни санкций, ни эффыекта). Тем не менее. эти методы позволяют держать страницы в топе по таким странам как Великобритания и обходить более "авторитетных" и крупных конкурентов (икоммерс) в течение 3-5 лет. Да, извечный вопрос у них сайт хуже, но в топе иногда имеет ответ, но не очевидный и обычными методами SEO-аудита ненаходимый (3,5 ссылки с каких-то тупых блогов, ключевые слова отсутствуют!!! в тегах h1, URL и в первом абзаце). Стоимость таких методов 200-300 долларов США, что сопоставимо с месячной ставкой типичных индусов.
Aleksandr GrammF5 Studio
2 апреля 2020
В реальности я за все время ни разу не отметил улучшения каких-то показателей после установки сертификата. По большому счету он имеет смысл для вебсайтов, на которых заносятся личные данные и проводятся транзакции. Представители Гугл также признают, что сам по себе поисковый сигнал незначительный. А я предполагаю, что там работают механизмы "компенсации". То есть, с добавлением рейтинга за сертификат сняли какой-то минорный сигнал из системы ранжирования.
Aleksandr GrammF5 Studio
28 мая 2020
Все так сильно критикуют, но я с позиций своего опыта и "мой парадигмы" (не знаю, что такое парадигма, но нравится слово :) ). К тому же не надо о новичках, сегодня известный SEO специалист написал в Твиттере, что 5 лет назад в Нью-Йорке, если SEO был ответом на вопрос "Чем занимаешься?", то следовал вопрос "А что это?". И только сейчас люди говорят "О, мне это надо". Так что ждем новичков, умных и агрессивных, много. Проблема "молодых" или новых сайтов не только в отсутствии ссылочной массы и точно не в возрасте или трастовости. Банально, но Гугл не знает по каким запросам выдавать ваш сайт. Поэтому в Search Console можно видеть позиции 1,2,3 и 198, и все это в течение недели/месяца. Другими словами поисковая система должна накопить поисковые сигналы, которых будет достаточно для алгоритмов выдачи и ранжирования. Это можно сравнить с любой статистической системой, которая работает криво или не работает вообще при недостатке данных. А нам говорят, что Гугл имеет 200+ факторов ранжирования. Поэтому да, банально нужно время чтобы набрать сигналов в т.ч. за счет обратных ссылок. Не знаю случаев попадания под фильтры из-за резкого роста количества обратных ссылок, если это не спам. Все эти разговоры, что ссылки надо добавлять трепетно и осторожно, с пропорциями анкорных, безанкорных, ноуфоллов и т.п. считаю банальным выбиванием денег из клиента.
Aleksandr GrammF5 Studio
28 мая 2020
Aleksandr Gramm
28 мая 2020
Все так сильно критикуют, но я с позиций своего опыта и "мой парадигмы" (не знаю, что такое парадигма, но нравится слово :) ). К тому же не надо о новичках, сегодня известный SEO специалист написал в Твиттере, что 5 лет назад в Нью-Йорке, если SEO был ответом на вопрос "Чем занимаешься?", то следовал вопрос "А что это?". И только сейчас люди говорят "О, мне это надо". Так что ждем новичков, умных и агрессивных, много. Проблема "молодых" или новых сайтов не только в отсутствии ссылочной массы и точно не в возрасте или трастовости. Банально, но Гугл не знает по каким запросам выдавать ваш сайт. Поэтому в Search Console можно видеть позиции 1,2,3 и 198, и все это в течение недели/месяца. Другими словами поисковая система должна накопить поисковые сигналы, которых будет достаточно для алгоритмов выдачи и ранжирования. Это можно сравнить с любой статистической системой, которая работает криво или не работает вообще при недостатке данных. А нам говорят, что Гугл имеет 200+ факторов ранжирования. Поэтому да, банально нужно время чтобы набрать сигналов в т.ч. за счет обратных ссылок. Не знаю случаев попадания под фильтры из-за резкого роста количества обратных ссылок, если это не спам. Все эти разговоры, что ссылки надо добавлять трепетно и осторожно, с пропорциями анкорных, безанкорных, ноуфоллов и т.п. считаю банальным выбиванием денег из клиента.
Очевидно, что всяческие программы и "линкбилдеры" руками часто испольщзуют откровенно спамные ресурсы, а это не катит с каждым годом все больше и больше. Раскрою совсем не секрет, выбираете одно из 3-х крупных пресс-релизных агентств, платите денежку и ловите бэклинки на свой чудо-сайт и позиции. Так работают все крупные проекты, которые хотят заработать денег. Если бюджет на SEO 200 долларов в месяц, то сэр получает то, что имеет. Но и на этот бюджет есть ответ. Новые блоги. Главный критерий это релевантность. Если страница о динозаврах, то размещать ссылку в статье о шампунях нет смысла. Разве что там будет абзац на тему были ли шампуни во времена динозавров. Дальше. Ключевые слова, где размещать бэклинки, контент маркетинг... это все делается ДО. Потому что потом это дороже и хуже. Но если уж, то, конечно, да.
Aleksandr GrammF5 Studio
28 мая 2020
Aleksandr Gramm
28 мая 2020
Очевидно, что всяческие программы и "линкбилдеры" руками часто испольщзуют откровенно спамные ресурсы, а это не катит с каждым годом все больше и больше. Раскрою совсем не секрет, выбираете одно из 3-х крупных пресс-релизных агентств, платите денежку и ловите бэклинки на свой чудо-сайт и позиции. Так работают все крупные проекты, которые хотят заработать денег. Если бюджет на SEO 200 долларов в месяц, то сэр получает то, что имеет. Но и на этот бюджет есть ответ. Новые блоги. Главный критерий это релевантность. Если страница о динозаврах, то размещать ссылку в статье о шампунях нет смысла. Разве что там будет абзац на тему были ли шампуни во времена динозавров. Дальше. Ключевые слова, где размещать бэклинки, контент маркетинг... это все делается ДО. Потому что потом это дороже и хуже. Но если уж, то, конечно, да.
Самый главный момент, который упускается совсем, это то, что сейчас трудно сделать что-то уникальное. Ну например, какой-то уникальный продукт, сервис или просто писать о чем-то совершенно уникальном, но массовом. Уже много людей побывали в Гималаях, Хорватии, наелися всяких продуктов и наделали одежд из органических волокон, что Гугл даже индексировать очередной контент не хочет. Добавьте к этому отсутствие маркетинговой стратегии и все. Сайт обречен. Да, можно нагнать траффик, но тогда проще купить ботов. Если для денег, то тут все просто маркетинг-> SEO->планирование-> реализация.
Aleksandr GrammF5 Studio
28 мая 2020
Юля Телижняк
28 мая 2020
Приветствую, Александр :) Спасибо, что поделились своим опытом и мнением, я это ценю) И кстати, была бы очень рада, если бы вы написали интересный материальчик в наш блог ;) Уверена, что получилось бы что-то очень классное. Если появится такое желание / возможность, дайте мне знать.
Конечно. К сожалению, тут чаще дело в возможности. Статьи я пишу почти каждый день, но для работы :)
Aleksandr GrammF5 Studio
28 мая 2020
Юля Телижняк
28 мая 2020
Поняла вас ;) Но если что, вот моя почта → [email protected]
Спасибо
Aleksandr GrammF5 Studio
11 июня 2020
В целом хорошие и правильные советы. Если делать сайт для людей то апдейты не страшны (нет, конечно). Например, на одной сайте, после апдейта было все нормально, но через две недели заметно просели позиции.
Aleksandr GrammF5 Studio
11 июня 2020
Ольга Горбенко
11 июня 2020
Но рост именно за счет трендовых тем) трафик - это хорошо, но стабильный трафик - ещё лучше)))
Ну если темы трендовые, то тут только так. Все новостные ресурсы (очень заметно по Блумбергу) стараются максимально покрыть тренды, пусть даже статья сама по себе неинформативная или повторяется одно и то же. Блоги теперь стали подменять новостные ресурсы, а такие тренды уже отлавливает команда Гугл. Но динамика и правда, как после рассылки больше похоже :)
Aleksandr GrammF5 Studio
11 июня 2020
Юля Телижняк
11 июня 2020
Спасибо, что делитесь :) Расскажите, делали ли вы что-то с этим?
Плакал вечером в подушку. Просадка по траффику на 30%. Счастливо совпало, что была запланирована миграция на новый дизайн через неделю. Вот вторую неделю, после миграции, полет нормальный. Хотелось бы больше, конечно. Но тут есть реальные факторы, высокая конкуренция и масса работы ещё.
Aleksandr GrammF5 Studio
25 июня 2020
Меня одного смущает то, что НЧ запросы считаются "низкоконкурентными"? У индусов это прямо мантра, типа если хочешь ранжироваться (быстро, дешево, в топ), то используй НЧ запрос. Если запрос НЧ (до 1000 запросов в месяц), а в индустрии, скажем, 100 магазинов из которых 2 маркетплейсы и 3-4 это национальный уровень, то это даже не сверхконкуренция, а просто избиение младенцев. Для себя давно отказался от использования ВЧ, НЧ и т.п. Есть запросы по которым люди ищут определенные товары/услуги, есть семантический поиск. На основе запросов формируешь ключевые слова для сигналов роботам, дальше формируешь контент под ключевое слово. Конечно, в идеале хорошо иметь базу клиентов в той же индустрии с доступом к Google Search Console, чтобы видеть как и что, какой типичный семантический шаблон поиска. А дальше творчество. Где-то картинками сыпешь, где-то видео-контент можно, где-то энциклопедию пишешь.
Aleksandr GrammF5 Studio
25 июня 2020
Но в любом случае за статью спасибо, интересно и, как всегда, полезно.
Aleksandr GrammF5 Studio
1 октября 2020
"На мой взгляд, при обучении алгоритма BERT использовались завышенные пороги по критерию, который можно условно назвать «Дата запуска» (Date launch)". BERT это не алгоритм. Это техническая система, условно, для улучшения понимания человеческого письменного языка. Увы, для компьютера все также сложно понимать что люди понимают под тем, что они пишут. Банальные предлоги, артикли, которые наш мозг улавливает вообще без осознания (помните эксперимент с перестановкой слов, что никак не влияло на правильность прочтения текста испытуемыми?) может серьезно озадачить все системы Google Search. Это максимально простыми словами. Есть несколько хороших статей на английском, которые объясняют принцип работы BERT. Проблема новых доменов и попыток натянуть на дроп в истории поисковых сигналов. Поэтому контентщикам и сеошникам надо сильно постараться, чтобы зайти с новым доменом в топ. И то, это не гарантирует продолжительного результата. По новостям очень все сложно и тут Google алгоритмы не столько помогают, сколько отчаянно вредят, о чем "новостники" периодически громко кричат и пинают Google, но в ответ, тишина. Достаточно вспомнить скандалы вокруг перепоста новостей с мелких сайтов крупными ресурсами. Google посоветовал использовать cross-domain canonical, но оказалось, что это не работает. Насколько там оно порешалось я даже не утруждался узнавать (думаю, нет).
Aleksandr GrammF5 Studio
1 октября 2020
Viacheslav Varenia
1 октября 2020
Добрый день. Спасибо за комментарий. Есть много определения, что такое BERT. Возьмем, например, несколько официальных публикаций. 1) "Основанная на нейронных сетях техника предварительного обучения обработки естественного языка (NLP)". https://blog.google/products/search/search-language-understanding-bert 2) "мы представляем Transformer, новую архитектуру нейронной сети, основанную на механизме самовнимания, который, по нашему мнению, особенно хорошо подходит для понимания языка". https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html Я думаю это уже не секрет, но новый алгоритм ранжирования в Новостях, был запущен практически одновременно с запуском BERT (и это, наверно, не случайно), хотя сам новый инструмент Publisher был запущен позже. Для меня в этих определениях являются ключевыми слова "Нейронная сеть". Если представить эту нейронную сеть в виде новогодней елки, то BERT - самая новая и самая красивая игрушка на ней. В моем представлении, нейронная сеть Google обучила и продолжает обучать BERT и множество других алгоритмов Google, которые используют ИИ. Среди них и обновленный алгоритм ранжирования URL во вкладке новости. Мы конечно можем только гадать, как работают алгоритмы и нейросети Google, но мне кажется, что на этапе предварительного обучения сети все равно маркировались данные (присваивались определенные ярлыки и т.п.). И я предполагаю, что избранная для нового алгоритма Новостей модель ИИ содержит ряд завышенных порогов. Что в итоге приводит к тому, что вероятность нормального ранжирования новых сайтов во вкладке новости близка к нулю. Естественно, это лишь мое видение того, что сейчас происходит с новыми сайтами в Новостях.
Извините, ничего не понял из того, что Вы написали. Опустим нейронные сети, ИИ и т.п. "машинное обучение", Вы их не совсем верно интерпретируете. Объясню на примере одной из ссылок, которую Вы дали. Есть фраза: “I arrived at the bank after crossing the river” Для программы, по сути кода на Пайтоне, слова банк, bank, der bank ничем не отличаются. Но, для английского языка a/the bank это и берег реки, и крен, и отмель, и финансовое учреждение. Смотрите, как тупенький API Demo интерпретирует сущности https://prnt.sc/urbdun хотя семантически почти все верно разложил https://prnt.sc/urber0 Это скрины с Natural Language API demo Google Cloud. Я ещё пользуюсь IBM Watson, там также все плохо, но можно играть кодом и писать простенькие вещи для понимания того, как поисковики обработают текст. Как мы видим, есть проблема и она серьезная. Это влияет на выдачу, хотя Google использует и PageRank (да, именно он спасает Google, потому что порядка 20-30% запросов в день, новые и точно не использует для ранжирования, а известную версию, вообще никогда не использовал). Также там есть другие системы, но, как мы знаем, контент - король. Собственно BERT обучается понимать, где bank это финансовое учреждение, где берег реки, а где мель. А это ещё может быть кино, ТВ шоу или книга, статья, недавнее событие (новость) и т.п. И собственно что из этого выдавать, в т.ч. помогает решать BERT. И его вот обучают "понимать" и "различать". К ранжированию это не имеет никакого отношения. Грубо говоря, BERT одна из систем, которая принимает решение с какой полки надо взять информацию, из какого каталога в ответ на запрос. Это достаточно интересная, но сложная тема, которая тянется из военных разработок (распознование объектов на снимках со спутников) эдак с годов 1970-х. А сами основы закладывались в 1950-х. По сути, тут нет большой разницы между "автопилотом" Теслы и системами типа BERT. Видео про оучение Теслы достаточно много :) Приблизительно также выглядит и "обучение" BERT.
Aleksandr GrammF5 Studio
1 октября 2020
Сотрудники Google говорят, что поведенческие факторы не используются в ранжировании. Но SEO специалисты им не верят. И действительно, есть патенты на т.н. "кликрейт" и т.п. Даже есть патент на распознавание реакции лица на поисковую выдачу с камеры смартфона. Да-да, и это патент Google. Но чем Вы меряете поведенческие? На какой выборке они могут использоваться? Эти и другие вопросы ставят под сомнение большинство теорий и гипотез в SEO. Pagespeed это не Web Core Vitals и это незначительные факторы ранжирования. Достаточно взять любой запрос и просто взять первые 20-30 сайтов из выдачи. Проще говоря, это сигнал для собственника сайта чтобы проверить, а не monkey coder ли его веб разработчик. Потому что используют тонны javascript, 100500 запросов на сервер и т.п. без какой-либо оптимизации. Я уже молчу о том, что в порядке вещей загружать картинки по 1-2 Мб. Сотрудники Google распределены так, чтобы знать только в своей узкой области. Конечно, для спаммеров и этого может быть достаточно, но там действительно сложная система. И тут такого нет, что здесь прикрутил, там вылезло. Потому что на "здесь прикрутил" найдется две-три сотни факторов поисковой системы, миллион SEO специалистов и десятки миллионов ищущих, которые все это прикрутил "поломают". И где оно вылезет, и как, не ясно. К сожалению, почти так.
Aleksandr GrammF5 Studio
2 октября 2020
Viacheslav Varenia
1 октября 2020
Да, официальная позиция состоит в том, что так называемые поведенческие факторы — это слишком "шумно" чтобы быть фактором ранжирования. Но я думаю, что это будет вам интересно https://t.me/seo_inside/17
Да, я читал статью, она вышла относительно недавно, Билл Славски, если не ошибаюсь. Там описываются все "спорные" теории и патенты под них. Судя по всему, отрывок взят оттуда. На самом деле это работает чуть сложнее. Давайте представим обычную ситуацию. Я ищу информацию о процессоре мобильного телефона. Скорее всего я перечитаю не меньше 10-ка статей, просмотрю полдюжины видео. Но из какой информации я получу полный ответ? Вариантов много. Возможно это будет первая статья, по которой я кликнул. Возможно, я получу информацию из двух статей и одного видео. Действительно, строить вокруг этого систему ранжирования, мягко говоря, неуместно. Поэтому модель ранжирования строится на "намерение" и прогнозе/предсказании того, что "контент подходящий". И первое и второе, конечно, далеко от идеала. Какие-то запросы, типа "Столица Франции" это относительно легко. Какие-то, "нужен ли загранпаспорт гражданину Гвинеа-Бисао для полета в Бразилию на неделю", не совсем. В том и проблема, что поисковая машина это набор множества систем, которые состоят из подсистем, что делает её поведение малопрогнозируемым. И делать ставку на что-то очень сложно. Тут надо всегда комплексное решение. Этого очень не хватает в отрасли.
Aleksandr GrammF5 Studio
10 февраля 2021
Sergey Petrov
25 февраля 2020
1. Спорный момент насчет удаления статей. Пусть себе висят. Они каши не просят. Удалять любые страницы - последнее дело. Особенно если с них проставлены ссылки на группы товаров. 2. Если статьи вообще не приносят трафик, они все равно нужны. Чем больше тематических материалов на сайте, тем сильнее сигнал для гугла, что сайт является экспертным в своей тематике.
Кстати, эту теорию буквально на днях подтвердил и Джон Мюллер (аналитик Гугл). Это, конечно, не так сильно прямо работает, как кажется. Но смысл в этом есть. Поэтому часто удивляют советы SEO специалистов по поводу "очистки" сайта от "ненужного контента". По опыту, уже могу сказать, что обновление и перелинковка даже нулевых статей позитивно отображается на траффике сайта. Конечно, нужно попыхтеть. Но прирост в 50-250% без всяких танцев с бубнами, линк билдинга и других способов спама, как бы намекает об эффективности. Причем речь не идет о просто траффике, речь идет именно о ценном траффике. То есть, кроме прироста траффика есть соответствующий рост конверсий и финансовых показателей.
Aleksandr GrammF5 Studio
10 февраля 2021
Kosta Bankovski
10 февраля 2021
А поделитесь, пожалуйста, ссылкой на материал, о котором вы говорите, чтобы и я был в курсе, о какой именно теории)
Конечно, вот https://www.seroundtable.com/google-site-reputation-topic-area-30889.html
Aleksandr GrammF5 Studio
8 апреля 2021
Святослав Худик
7 апреля 2021
А как найти такого черного SEO специалиста?
Западных можно на форумах (бизнес), в группах ФБ. Главное обходить стороной экспертов из Индии, Пакистана и Филлипин. Наши, обычно больше просят, но любая долгоиграющая компания имеет пару таких специалистов или одного.
Aleksandr GrammF5 Studio
8 апреля 2021
Andrii Derypasko
30 сентября 2020
Делайте белое SEO!
Недавно был хороший пост от Daphne Keller. Вот цитата It's kind of like platforms saying “we will reward this behavior until you adapt your business and get too good at it, and then we will punish it.” That’s the unavoidable cycle with spam or SEO. Другими словами, вы делайте там себе что-то и мы (любая платформа, в данном случае Гугл) будем поощрять это пока вы не станете слишком хорошив этом. Тогда мы накажем вас. То есть все методы белые до определенного момента. Когда-то и фермы ссылок были норм, пока спаммеры не стали просто играть на этом. Хотя там и вина поисковых систем есть. Ссылки, как бы, это и есть веб. И хтим мы того, не хотим, ссылки будут строиться всеми доступными способами. Поэтому Гугл принял соломоново решение попросту игнорить большинство ссылок "по умолчанию" (по правде, там сложный алгоритм оценки ссылок) и наказывать только в случае откровенногно спама.
Aleksandr GrammF5 Studio
8 апреля 2021
Максим Чуй
24 февраля 2021
Сейчас занят проектом italwax kiev (можете глянуть интересный кейс) Рост по Гуглу 125 доменов (540 ссылок) по Ahrefs 64 доменов (3030 ссылок). Главная проблема - отсутствие бюджета, было принято решение, поднимать ключевики краудом и ссылки в каталогах, кто чтоб не говорил, за 2 месяца 50%(250 шт) ключевиков в топ 10. Естественно, до этого была проведена титаническая работа с контентом, ключевиками, симантикой в целом.
Я хз как это понять, нет бюджета то мы будем поднимать краудом. У вас что, крауд дешевле ссылок обходится? Ну по каталогам понятно, но это по некоторым нишам дает какой-то эффект, в большинстве случаев как и вообще линкбилдинг, пустая трата времени. Если есть бюджет, можно запускать иные вещи и на другом уровне. Если нет бюджета (лишних 3-4 к USD), то можно заниматься поисковой оптимизацией. Потому что вот это не поисковая оптимизация.
Нравится комментарий?
Чтобы поставить комментарию отметку «Нравится», пожалуйста, зарегистрируйтесь (в этом случае вы получите массу плюшек от Netpeak Software) или войдите в свой аккаунт.
Хотите ответить на комментарий?
Чтобы ответить на комментарий к посту, пожалуйста, зарегистрируйтесь (в этом случае вы получите массу плюшек от Netpeak Software) или войдите в свой аккаунт.