ВходящиеВходящие
ВажныеВажные
ВидеоВидео
Категории
ОбновленияОбновления
МануалыМануалы
КейсыКейсы
ПодборкиПодборки
От экспертовОт экспертов
НовостиНовости
ТестыТесты
Входящие
Важные
Видео
Aleksandr Gramm

Aleksandr Gramm

F5 Studio
  • Комментарии (36)
  • Посты
Сортировка:
Этот пользователь не опубликовал ещё ни одного поста. Мы помогаем изо всех сил — теперь дело за автором!
11 января 2019
Пока что инструмент в процессе отладки и это явно заметно. Особенно интересно как выбирается каноническая страница и потом в дупликаты уходит половина страниц 20-и страничного сайта.
Также любопытно и то, что после внесения изменений и повторной отправки страниц на индексацию не происходит ничего, висят старые даты обхода ботом.
Но в целом очень полезный и интересный, если, конечно, учитывать особенности. Например, по позициям запросов отображаются лучшие позиции. то есть, условно, в Сингапуре вы отображаетесь по этому запросу на 3-й позиции. Но целевая страна у вас Казахстан. А тут вы, в реальности, на 50-й. 
Поэтому желательно скачивать сразу несколько отчётов и делать что-то вроде кросс-анализа.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
23 января 2019
по показателям «Уровень E-A-T»
Извините, не совсем понял, откуда эти показатели брались.

Шума много было. Не знаю, как в Украине, но у многих заказчиков посыпались сайты очень далекие от медицинской тематики. И отскока нет, траффик остаётся заметно низким. Причем установить какую-то связь сложно. У кого-то куча бэклинков с невысоким уровнем качества, у кого-то UI/UX хромает.

Моё мнение, тут не обязательно надо искать проблему в сайтах, ссылках. Гугл также может выкатывать обновления с ошибками, что приводит к определённым казусам. Потом потихоньку исправляет и траффик идёт "в гору".
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
24 января 2019
Viacheslav Varenia
23 января 2019
"E-A-T" - терминология из Руководства Google для асессоров. Наблюдая за обсуждениями на многих SEO-форумах мы заметили, что многие понимают это очень упрощенно — как наличие на сайте только информации об авторе (докторе), контактах сайта и автора контента. На самом деле Руководство — это документ, содержащий принципы того, как мог бы работать алгоритм Google. Только вот между словами "мог бы" и "работает" две большие разницы. Руководство — это то, какими бы Google хотел видеть качественные сайты. Изучая этот вопрос, мы пришли к мнению, что показатель E-A-T должен иметь оценку. На основе критериев, описанных в Руководстве, мы ввели систему оценки, присваивая каждому критерию определенный балл. Мы понимаем, что наша система оценки имеет определенную долю субъективизма, и потому внизу статьи написали дисклеймер: "результаты исследования основаны на показателях сайтов из выборки авторов и могут существенно отличаться от ваших данных". Я не согласен с вами, что не нужно искать проблему в сайтах. Во многих случаях проблема именно в сайтах. Другое дело, что Google может менять факторы ранжирования и их веса, — в этой ситуации остается только догадываться, что произошло. Но эксперименты в любом случае нужны ибо только опытным путём, чаще всего, можно выявить общие признаки.
Спасибо за развернутый ответ. Да, я читал Руководство. 
Как пишет основатель одного агенства все оценки субъективные. Это к тому, что мы не знаем какие показатели как оцениваются самим Google и оцениваются ли вообще.
Я писал о поиске некой общей проблемы. Хотя и тут очевидно. Последние несколько лет (а прошлый год усиленно) Google активно борется с некачественными бэклинками. Активно продвигается тема natural language processing (что связано с AI и machine learning). Однако все это работает в связке с десятком факторов (хотя указывают, что Google использует 100-200 факторов ранжирования).
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
24 января 2019
Viacheslav Varenia
24 января 2019
"Активно продвигается тема natural language processing (что связано с AI и machine learning)".
Это да, но, насколько я знаю, API natural language пока не поддерживает русский.

"Однако все это работает в связке с десятком факторов".
Нет, конечно сигналов используется намного больше. Тут вы ошибаетесь.
Я сомневаюсь, что на сегодняшний день Google способен адекватно учитывать и рассчитывать больше факторов, чем 100. Плюс какие-то факторы, например, протокол https, совершенно незначительные.
Мне сложно судить о русско- и украиноязычных сегментах, так как уже несколько лет не работаю в них, и висят только старые тестовые площадки на которые нет ни сил, ни желания чтобы привести к каким-то данным.

Впрочем, я не претендую на истину :) Конечно, могу ошибаться. 

В любом случае Ваш эксперимент интересный и нужный. Поэтому большое спасибо. Один из немногих ресурсов, где можно найти действительно интересную и полезную информацию.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
6 июня 2019
Спасибо. Очень интересная статья (и ссылочка полезная на SILO). Могу только подтвердить, хорошая структура и внутрення перелинковка дают очень большой плюс в продвижении сайта. Пока что ищу разумные причины, чтобы объяснять это аргументированно. Вопрос не только в том, что мы облегчаем поисковым системам понимание сайта (контента) и помогаем лучше индексировать, а значит, формировать релевантную выдачу. Мне кажется есть и дополнительные факторы.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
19 июня 2019
Позволю себе пару комментариев, в основном по amp Google, потому что больше сталкиваюсь с ними.

1) Сильно урезан функционал страниц. Поэтому не рекомендовал бы для главных страниц, каталогов/рубрик. Если есть статья, которую надо подвинуть норм.
2) Google ставит amp страницы вашего сайта выше обычных страниц. Учитывайте это в SEO продвижении и проверяйте какой контент вы отправляете в amp. Чтобы потом не было мучительно больно за то, что "что-то не попало".
3) Если кто-то поделится линком на amp страницу, то может быть такая трабла, что после смены на обычный урл, посетителей все равно будет редиректить на amp.
4) Собственно Google отдает кеш, а не актуальную страницу, что может быть критично, когда меняется контент страницы. 

От себя добавлю, что не рекомендую для икоммерс (каталоги, страницы продукта), потому что функционал чекаута не поддерживается. Редирект с amp на обычную страницу пугает многих наших людей, потому что какой там урл никто не смотрит. А выглядит такой редирект, как сайт-мошенник.
Но всякие продвинутые блоговоые страницы, инфо, статьи, лонгриды, энциклопедии и т.п. то вполне норм. Очень удобно, когда быстро загружается нужная инфо.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
10 июля 2019
For example, if a website is constantly getting links with the anchor text “dog collar”, Google is eventually going to determine that your site is about dog collars.
Точнее, Гугл поймет, что страница о собачьих ошейниках. Сайт может быть посвящен товарам для собак вообще, для животных вообще. Но анкор это сигнал, что страница на которую ссылается, об ошейниках. 
Впрочем, это может быть сайт об ошейниках и ссылка может быть на главную страницу (равно как и на каталог, страницу конкретного ошейника, страницу блога об ошейниках и т.п.).
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
17 июля 2019
Спасибо. Все по делу очень четко разложили.
Нельзя лайкать самого себя
7Нравится
Ответить
Поделиться
Скопировано
12 сентября 2019
Добрый день. Очень круто. Соглашусь, по базе очень полезная фича.
Вообще пробовал спайдер во время бесплатного периода и просто наслаждался (это с учетом, что я могу сравнивать с другими инструментами).
К сожалению, да, к моему личному сожалению, направление маркетинга в нашей деятельности ограничено (пока что). Поэтому мне остается только ждать и люто рекомендовать инструмент знакомым.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
9 января 2020
Неплохой гайд. Спасибо.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
16 января 2020
Интересно, потому что давно не сталкивался с продвижением ecommerce на Яндекс, но не понял зачем собирать информацию о возрасте домена.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
17 января 2020
Юля Телижняк
16 января 2020
Здравствуйте :) Информация о возрасте домена может понадобиться, чтобы:
1. Найти молодые сайты, которые хорошо растут в поиске, проанализировать их методы продвижения и смоделировать собственные. 
2. Понимать, какой средний возраст доменов в топе, какие конкуренты молодые, а какие старые.
Спасибо. Понятно, как ещё один критерий оценки и поиска "лучшей практики".
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
30 января 2020
Интересный кейс. Спасибо.
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
31 января 2020
Kosta Bankovski
31 января 2020
Спасибо за позитивный отзыв!

Дальше будет ещё круче, так что следите за обновлениями ;)
На мой взгляд, один из интереснейших ресурсов. Поэтому тщательно слежу за любыми обновлениями.
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
19 февраля 2020
Seoquick Seoquick
3 февраля 2020
Еще нужно обратить внимание нато, что было бы странно обновить статью и оставить старую дату публикации. Поэтому для всех актуализированных статей задавайте новые даты — на месяц раньше текущей даты. Так обновленные статьи не перебивают в ленте только опубликованные материалы, но сигнализируют поисковикам, что надо бы их переиндексировать. Спасибо за полезный материал, интересно было читать.
Каким образом "сигнализируют"? Мне интересна техническая сторона.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
19 февраля 2020
Интересно, практически все использую, но с датами не играюсь. Если уж сильно хочется, то вручную отправляю через Google Search Console на реиндекс. Сейчас, как раз, работаю с блогом веб студии. Результат позитивный, отмечается стабильный рост позиций и траффика. Плюс, попутно, решаю проблему "проходящего" траффика, чтобы пользователи не покидали сайт вместе со статьей.
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
27 февраля 2020
Сталкивались на Magento2 с "атакой гуглоботов". На самом деле так работал плагин одной известной компании из-за чего возрастала нагрузка на сервер.
Очень рекомендую смотреть логи сервера, хотя бы периодически и знать техническую составляющую платформы, на которой сайт.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
27 февраля 2020
Вряд ли кто-то знает всю картину по ранжированию. Там несколько алгоритмов плюс, то что многие понять не могут, это то, что в системе ранжирования есть система предсказания. Грубо говоря, методом научного тыка. Иногда (для новых запросов, а их до 30%) это вообще случайным образом происходит.
Но они точно знают, что не входит в ранжирование.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
20 марта 2020
На самом деле методов манипуляций больше. По объективным причинам расписывать их не буду, да и для большинства это все равно закончится никак (ни санкций, ни эффыекта).
Тем не менее. эти методы позволяют держать страницы в топе по таким странам как Великобритания и обходить более "авторитетных" и крупных конкурентов (икоммерс) в течение 3-5 лет. Да, извечный вопрос у них сайт хуже, но в топе иногда имеет ответ, но не очевидный и обычными методами SEO-аудита ненаходимый (3,5 ссылки с каких-то тупых блогов, ключевые слова отсутствуют!!! в тегах h1, URL и в первом абзаце).
Стоимость таких методов 200-300 долларов США, что сопоставимо с месячной ставкой типичных индусов.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
2 апреля 2020
В реальности я за все время ни разу не отметил улучшения каких-то показателей после установки сертификата. По большому счету он имеет смысл для вебсайтов, на которых заносятся личные данные и проводятся транзакции.
Представители Гугл также признают, что сам по себе поисковый сигнал незначительный. А я предполагаю, что там работают механизмы "компенсации". То есть, с добавлением рейтинга за сертификат сняли какой-то минорный сигнал из системы ранжирования.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
Не являюсь специалистом в локальном продвижении, но оцениваю материал как интересный и полезный. По крайней мере, для себя, расставил некоторые точки над некоторыми i.
По стоимости лида согласен. Но в буржуйнете локальный поиск совершенно обезображивается Yelp, TrustPilot и другими подобными ресурсами, которые вышибают местные компании в глубины органической выдачи.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
И тут маркетолог уходит делать лендинги на Tilda под каждую группу запросов. (с)

И тут маркетолог уходит. Так лучше всем.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
28 мая 2020
Все так сильно критикуют, но я с позиций своего опыта и "мой парадигмы" (не знаю, что такое парадигма, но нравится слово :) ). К тому же не надо о новичках, сегодня известный SEO специалист написал в Твиттере, что 5 лет назад в Нью-Йорке, если SEO был ответом на вопрос "Чем занимаешься?", то следовал вопрос "А что это?". И только сейчас люди говорят "О, мне это надо". Так что ждем новичков, умных и агрессивных, много.

Проблема "молодых" или новых сайтов не только в отсутствии ссылочной массы и точно не в возрасте или трастовости. Банально, но Гугл не знает по каким запросам выдавать ваш сайт. Поэтому в Search Console можно видеть позиции 1,2,3 и 198, и все это в течение недели/месяца. Другими словами поисковая система должна накопить поисковые сигналы, которых будет достаточно для алгоритмов выдачи и ранжирования. Это можно сравнить с любой статистической системой, которая работает криво или не работает вообще при недостатке данных. А нам говорят, что Гугл имеет 200+ факторов ранжирования. 
Поэтому да, банально нужно время чтобы набрать сигналов в т.ч. за счет обратных ссылок.
Не знаю случаев попадания под фильтры из-за резкого роста количества обратных ссылок, если это не спам. Все эти разговоры, что ссылки надо добавлять трепетно и осторожно, с пропорциями анкорных, безанкорных, ноуфоллов и т.п. считаю банальным выбиванием денег из клиента.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
28 мая 2020
Aleksandr Gramm
28 мая 2020
Все так сильно критикуют, но я с позиций своего опыта и "мой парадигмы" (не знаю, что такое парадигма, но нравится слово :) ). К тому же не надо о новичках, сегодня известный SEO специалист написал в Твиттере, что 5 лет назад в Нью-Йорке, если SEO был ответом на вопрос "Чем занимаешься?", то следовал вопрос "А что это?". И только сейчас люди говорят "О, мне это надо". Так что ждем новичков, умных и агрессивных, много.

Проблема "молодых" или новых сайтов не только в отсутствии ссылочной массы и точно не в возрасте или трастовости. Банально, но Гугл не знает по каким запросам выдавать ваш сайт. Поэтому в Search Console можно видеть позиции 1,2,3 и 198, и все это в течение недели/месяца. Другими словами поисковая система должна накопить поисковые сигналы, которых будет достаточно для алгоритмов выдачи и ранжирования. Это можно сравнить с любой статистической системой, которая работает криво или не работает вообще при недостатке данных. А нам говорят, что Гугл имеет 200+ факторов ранжирования. 
Поэтому да, банально нужно время чтобы набрать сигналов в т.ч. за счет обратных ссылок.
Не знаю случаев попадания под фильтры из-за резкого роста количества обратных ссылок, если это не спам. Все эти разговоры, что ссылки надо добавлять трепетно и осторожно, с пропорциями анкорных, безанкорных, ноуфоллов и т.п. считаю банальным выбиванием денег из клиента.
Очевидно, что всяческие программы и "линкбилдеры" руками часто испольщзуют откровенно спамные ресурсы, а это не катит с каждым годом все больше и больше.
Раскрою совсем не секрет, выбираете одно из 3-х крупных пресс-релизных агентств, платите денежку и ловите бэклинки на свой чудо-сайт и позиции. Так работают все крупные проекты, которые хотят заработать денег. Если бюджет на SEO 200 долларов в месяц, то сэр получает то, что имеет. Но и на этот бюджет есть ответ. Новые блоги. Главный критерий это релевантность. Если страница о динозаврах, то размещать ссылку в статье о шампунях нет смысла. Разве что там будет абзац на тему были ли шампуни во времена динозавров.

Дальше. Ключевые слова, где размещать бэклинки, контент маркетинг... это все делается ДО. Потому что потом это дороже и хуже. Но если уж, то, конечно, да.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
28 мая 2020
Aleksandr Gramm
28 мая 2020
Очевидно, что всяческие программы и "линкбилдеры" руками часто испольщзуют откровенно спамные ресурсы, а это не катит с каждым годом все больше и больше.
Раскрою совсем не секрет, выбираете одно из 3-х крупных пресс-релизных агентств, платите денежку и ловите бэклинки на свой чудо-сайт и позиции. Так работают все крупные проекты, которые хотят заработать денег. Если бюджет на SEO 200 долларов в месяц, то сэр получает то, что имеет. Но и на этот бюджет есть ответ. Новые блоги. Главный критерий это релевантность. Если страница о динозаврах, то размещать ссылку в статье о шампунях нет смысла. Разве что там будет абзац на тему были ли шампуни во времена динозавров.

Дальше. Ключевые слова, где размещать бэклинки, контент маркетинг... это все делается ДО. Потому что потом это дороже и хуже. Но если уж, то, конечно, да.
Самый главный момент, который упускается совсем, это то, что сейчас трудно сделать что-то уникальное. Ну например, какой-то уникальный продукт, сервис или просто писать о чем-то совершенно уникальном, но массовом. Уже много людей побывали в Гималаях, Хорватии, наелися всяких продуктов и наделали одежд из органических волокон, что Гугл даже индексировать очередной контент не хочет.
Добавьте к этому отсутствие маркетинговой стратегии и все. Сайт обречен. Да, можно нагнать траффик, но тогда проще купить ботов. Если для денег, то тут все просто маркетинг-> SEO->планирование-> реализация.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
28 мая 2020
Приветствую, Александр :)
Спасибо, что поделились своим опытом и мнением, я это ценю)

И кстати, была бы очень рада, если бы вы написали интересный материальчик в наш блог ;) Уверена, что получилось бы что-то очень классное. Если появится такое желание / возможность, дайте мне знать.
Конечно. К сожалению, тут чаще дело в возможности. Статьи я пишу почти каждый день, но для работы :)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
28 мая 2020
Поняла вас ;) Но если что, вот моя почта → [email protected]
Спасибо
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
11 июня 2020
В целом хорошие и правильные советы. Если делать сайт для людей то апдейты не страшны (нет, конечно). Например, на одной сайте, после апдейта было все нормально, но через две недели заметно просели позиции.
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
11 июня 2020
Но рост именно за счет трендовых тем) трафик - это хорошо, но стабильный трафик - ещё лучше)))
Ну если темы трендовые, то тут только так. Все новостные ресурсы (очень заметно по Блумбергу) стараются максимально покрыть тренды, пусть даже статья сама по себе неинформативная или повторяется одно и то же.
Блоги теперь стали подменять новостные ресурсы, а такие тренды уже отлавливает команда Гугл. Но динамика и правда, как после рассылки больше похоже :)
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
11 июня 2020
Юля Телижняк
11 июня 2020
Спасибо, что делитесь :) 
Расскажите, делали ли вы что-то с этим?
Плакал вечером в подушку. Просадка по траффику на 30%.

Счастливо совпало, что была запланирована миграция на новый дизайн через неделю. Вот вторую неделю, после миграции, полет нормальный. Хотелось бы больше, конечно. Но тут есть реальные факторы, высокая конкуренция и масса работы ещё.
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
25 июня 2020
Меня одного смущает то, что НЧ запросы считаются "низкоконкурентными"? У индусов это прямо мантра, типа если хочешь ранжироваться (быстро, дешево, в топ), то используй НЧ запрос.
Если запрос НЧ (до 1000 запросов в месяц), а в индустрии, скажем, 100 магазинов из которых 2 маркетплейсы и 3-4 это национальный уровень, то это даже не сверхконкуренция, а просто избиение младенцев.

Для себя давно отказался от использования ВЧ, НЧ и т.п. Есть запросы по которым люди ищут определенные товары/услуги, есть семантический поиск. На основе запросов формируешь ключевые слова для сигналов роботам, дальше формируешь контент под ключевое слово.
Конечно, в идеале хорошо иметь базу клиентов в той же индустрии с доступом к Google Search Console, чтобы видеть как и что, какой типичный семантический шаблон поиска. А дальше творчество. Где-то картинками сыпешь, где-то видео-контент можно, где-то энциклопедию пишешь.
Нельзя лайкать самого себя
2Нравится
Ответить
Поделиться
Скопировано
25 июня 2020
Но в любом случае за статью спасибо, интересно и, как всегда, полезно.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
1 октября 2020
"На мой взгляд, при обучении алгоритма BERT использовались завышенные пороги по критерию, который можно условно назвать «Дата запуска» (Date launch)".

BERT это не алгоритм. Это техническая система, условно, для улучшения понимания человеческого письменного языка. Увы, для компьютера все также сложно понимать что люди понимают под тем, что они пишут. Банальные предлоги, артикли, которые наш мозг улавливает вообще без осознания (помните эксперимент с перестановкой слов, что никак не влияло на правильность прочтения текста испытуемыми?) может серьезно озадачить все системы Google Search. Это максимально простыми словами. Есть несколько хороших статей на английском, которые объясняют принцип работы BERT. 
Проблема новых доменов и попыток натянуть на дроп в истории поисковых сигналов. Поэтому контентщикам и сеошникам надо сильно постараться, чтобы зайти с новым доменом в топ. И то, это не гарантирует продолжительного результата. По новостям очень все сложно и тут Google алгоритмы не столько помогают, сколько отчаянно вредят, о чем "новостники" периодически громко кричат и пинают Google, но в ответ, тишина. Достаточно вспомнить скандалы вокруг перепоста новостей с мелких сайтов крупными ресурсами. Google посоветовал использовать cross-domain canonical, но оказалось, что это не работает. Насколько там оно порешалось я даже не утруждался узнавать (думаю, нет).
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
1 октября 2020
Viacheslav Varenia
1 октября 2020
Добрый день. Спасибо за комментарий.

Есть много определения, что такое BERT.

Возьмем, например, несколько официальных публикаций.

1) "Основанная на нейронных сетях техника предварительного обучения обработки естественного языка (NLP)".
https://blog.google/products/search/search-language-understanding-bert

2) "мы представляем Transformer, новую архитектуру нейронной сети, основанную на механизме самовнимания, который, по нашему мнению, особенно хорошо подходит для понимания языка".
https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html

Я думаю это уже не секрет, но новый алгоритм ранжирования в Новостях, был запущен практически одновременно с запуском BERT (и это, наверно, не случайно), хотя сам новый инструмент Publisher был запущен позже.

Для меня в этих определениях являются ключевыми слова "Нейронная сеть". Если представить эту нейронную сеть в виде новогодней елки, то BERT - самая новая и самая красивая игрушка на ней.

В моем представлении, нейронная сеть Google обучила и продолжает обучать BERT и множество других алгоритмов Google, которые используют ИИ. Среди них и обновленный алгоритм ранжирования URL во вкладке новости.

Мы конечно можем только гадать, как работают алгоритмы и нейросети Google, но мне кажется, что на этапе предварительного обучения сети все равно маркировались данные (присваивались определенные ярлыки и т.п.).

И я предполагаю, что избранная для нового алгоритма Новостей модель ИИ содержит ряд завышенных порогов. Что в итоге приводит к тому, что вероятность нормального ранжирования новых сайтов во вкладке новости близка к нулю. 

Естественно, это лишь мое видение того, что сейчас происходит с новыми сайтами в Новостях.
Извините, ничего не понял из того, что Вы написали. Опустим нейронные сети, ИИ и т.п. "машинное обучение", Вы их не совсем верно интерпретируете. 
Объясню на примере одной из ссылок, которую Вы дали.
Есть фраза:
“I arrived at the bank after crossing the river”
Для программы, по сути кода на Пайтоне, слова банк, bank, der bank ничем не отличаются. Но, для английского языка a/the bank это и берег реки, и крен, и отмель, и финансовое учреждение. Смотрите, как тупенький API Demo интерпретирует сущности https://prnt.sc/urbdun хотя семантически почти все верно разложил https://prnt.sc/urber0 Это скрины с Natural Language API demo Google Cloud. Я ещё пользуюсь IBM Watson, там также все плохо, но можно играть кодом и писать простенькие вещи для понимания того, как поисковики обработают текст.
Как мы видим, есть проблема и она серьезная. Это влияет на выдачу, хотя Google использует и PageRank (да, именно он спасает Google, потому что порядка 20-30% запросов в день, новые и точно не использует для ранжирования, а известную версию, вообще никогда не использовал). Также там есть другие системы, но, как мы знаем, контент - король.
Собственно BERT обучается понимать, где bank это финансовое учреждение, где берег реки, а где мель. А это ещё может быть кино, ТВ шоу или книга, статья, недавнее событие (новость) и т.п. И собственно что из этого выдавать, в т.ч. помогает решать BERT. И его вот обучают "понимать" и "различать". К ранжированию это не имеет никакого отношения. Грубо говоря, BERT одна из систем, которая принимает решение с какой полки надо взять информацию, из какого каталога в ответ на запрос. 
Это достаточно интересная, но сложная тема, которая тянется из военных разработок (распознование объектов на снимках со спутников) эдак с годов 1970-х. А сами основы закладывались в 1950-х. По сути, тут нет большой разницы между "автопилотом" Теслы и системами типа BERT. Видео про оучение Теслы достаточно много :) Приблизительно также выглядит и "обучение" BERT.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано
1 октября 2020
Vitaly Krasheninin
1 октября 2020
Тема однозначно интересная, но к чему была вся эта "простыня"? То, что Возраст домена + Trust домена + Обратные ссылки + Поведенческие факторы + Pagespeed (Web Core Vitals) и Мобильная верстка играют огромную роль - это и так всем понятно. Что нового открыл автор? Как работают алгоритмы Google News? Так этого до сих пор толком ничего не известно (нужно быть сотрудником Google, чтобы знать на 100%). Автор лучше бы привел реальный кейс, где он с нуля создал собственный информационный сайт и вывел в Google News - вот это было бы действительно полезным! А так, данная статья только еще раз подтверждает, что у среднестатических молодых сайтов шансов нет - первые 1-2 года практически нет никаких шансов где-то закрепится и куда-нибудь попасть) Без ссылок, без траста, без ПФ.
Сотрудники Google говорят, что поведенческие факторы не используются в ранжировании. Но SEO специалисты им не верят. И действительно, есть патенты на т.н. "кликрейт" и т.п. Даже есть патент на распознавание реакции лица на поисковую выдачу с камеры смартфона. Да-да, и это патент Google. Но чем Вы меряете поведенческие? На какой выборке они могут использоваться? Эти и другие вопросы ставят под сомнение большинство теорий и гипотез в SEO.
Pagespeed это не Web Core Vitals и это незначительные факторы ранжирования. Достаточно взять любой запрос и просто взять первые 20-30 сайтов из выдачи. Проще говоря, это сигнал для собственника сайта чтобы проверить, а не monkey coder ли его веб разработчик. Потому что используют тонны javascript, 100500 запросов на сервер и т.п. без какой-либо оптимизации. Я уже молчу о том, что в порядке вещей загружать картинки по 1-2 Мб. 
Сотрудники Google распределены так, чтобы знать только в своей узкой области. Конечно, для спаммеров и этого может быть достаточно, но там действительно сложная система. И тут такого нет, что здесь прикрутил, там вылезло. Потому что на "здесь прикрутил" найдется две-три сотни факторов поисковой системы, миллион SEO специалистов и десятки миллионов ищущих, которые все это прикрутил "поломают". И где оно вылезет, и как, не ясно. К сожалению, почти так.
Нельзя лайкать самого себя
1Нравится
Ответить
Поделиться
Скопировано
2 октября 2020
Viacheslav Varenia
1 октября 2020
Да, официальная позиция состоит в том, что так называемые поведенческие факторы — это слишком "шумно" чтобы быть фактором ранжирования. Но я думаю, что это будет вам интересно https://t.me/seo_inside/17
Да, я читал статью, она вышла относительно недавно, Билл Славски, если не ошибаюсь. Там описываются все "спорные" теории и патенты под них. Судя по всему, отрывок взят оттуда.
На самом деле это работает чуть сложнее. Давайте представим обычную ситуацию. Я ищу информацию о процессоре мобильного телефона. Скорее всего я перечитаю не меньше 10-ка статей, просмотрю полдюжины видео. Но из какой информации я получу полный ответ? Вариантов много. Возможно это будет первая статья, по которой я кликнул. Возможно, я получу информацию из двух статей и одного видео. Действительно, строить вокруг этого систему ранжирования, мягко говоря, неуместно. Поэтому модель ранжирования строится на "намерение" и прогнозе/предсказании того, что "контент подходящий". И первое и второе, конечно, далеко от идеала. Какие-то запросы, типа "Столица Франции" это относительно легко. Какие-то, "нужен ли загранпаспорт гражданину Гвинеа-Бисао для полета в Бразилию на неделю", не совсем.
В том и проблема, что поисковая машина это набор множества систем, которые состоят из подсистем, что делает её поведение малопрогнозируемым. И делать ставку на что-то очень сложно. Тут надо всегда комплексное решение. Этого очень не хватает в отрасли.
Нельзя лайкать самого себя
Нравится
Ответить
Поделиться
Скопировано