PIN-UP.Partners

Google November Update 2019: что ответил поисковик, как вернуть позиции и трафик

Рубрика: Теория и статистика | Время на чтение: 22 мин.

На прошлой неделе Google запустил не анонсированное обновление. Оно затронуло сайты в широком диапазоне ниш. Большинство отзывов от вебмастеров отрицательные, хотя есть среди них и счастливчики, в том числе, использующие для продвижения спам.

Google November Update 2019: что ответил поисковик, как вернуть позиции и трафик

Ниже будет аналитика, опубликованная на популярном забугорном СМИ о SEO – «Search Engine Journal» (www.searchenginejournal.com), ссылку на которую в Твиттере скинул Alex Buraks (@alexburaks), за что ему большое спасибо.

Оглавление

Результаты апдейта видны во многих нишах

SEO-специалист Алан Блейвайс (@AlanBleiweiss) написал в своём Твиттере, насколько сильно этот апдейт повлиял на множество отраслей:

  • Каталог и база знаний по психическому здоровью – 20% рост.
  • Бронирование путешествий – 14% рост.
  • Бронирование путешествий – 25% рост.
  • Рецепты – 12% рост.
  • Электронная коммерция, направленная на потребителя – 20% рост.
  • Технические новости – 20% падение.
  • Уход за кожей (аффилиатник) – 48% падение.
  • Альтернативная медицина – без изменений.
  • Другие сайты рецептов – без изменений.
Результаты мониторинга 47 сайтов

Всего он отслеживает 47 сайтов. «Бронирование путешествий» написано дважды, потому что это 2 разных проекта.

Одними из первых ап заметили фуд-блогеры

Гугл не ориентируется на какие-то определённые ниши. Но фуд-блогеры – высокоорганизованное сообщество. Поэтому, когда случается что-то значимое, их голос всегда в первых рядах. Так получилось и в этот раз. По состоянию на 9 ноября список блогов с рецептами, пострадавших от апа, включал уже 47 участников.

Кейси Марки из MediaWyse (@MediaWyse), которая специализируется на SEO в фуд-блогинге, рассказала об этих 47 сайтах, пострадавших от Google November Update 2019:

Все эти сайты, и большие, и маленькие, и средние показывают 30%+ падение. Я понимаю, что по блогерам тяжело судить о падениях и вещах, вроде «ОМГ, нужно вносить радикальные изменения».

Это всё равно, что бросать дротики в доску с завязанными глазами, в темноте и под водой. Определенно нужно ПОДОЖДАТЬ для получения дополнительных данных, до тех пор, пока это «обновление» (или что-то ещё) не будет полностью развернуто.

Большое не анонсированное обновление алгоритмов Гугла

Безусловно, лучше подождать, что сам Гугл скажет об этом обновлении.

Трэвел-блогеры тоже

Лесли Харви (@TripsWithTykes), трэвел-блогер, ответила на твит Кейси следующее:

Наблюдаю, что об этом много пишут и в нише тревел-блогов – судя по рассказам, десятки блогов о путешествиях с большим объёмом трафика серьёзно просели.

Падение трафика в нише путешествий

Множество впервые пострадавших от апдейта

Любопытное замечание об этом обновлении заключается в том, что многие вебмастеры сообщают, что их сайты никогда ранее не были затронуты предыдущими обновлениями, и удивлены тем, что, в конце концов, их за что-то наказал Google. В качестве репрезентативного примера один вебмастер написал в Твиттере:

За последние два дня я потеряла 25% органического трафика. Каждое предыдущее обновление алгоритмов оказывало лишь положительное влияние.

Неожиданное падение трафика

Наблюдения экспертов из Facebook

Аналогичные истории рассказывают в закрытой Фейсбук-группе «SEO Signals Lab». Например, один из участников заявил, что его семилетний сайт, который годами был в тройке лидеров, внезапно опустился на вторую и третью страницы поисковой выдачи. Причём до этого он также ни разу не страдал от апдейтов Гугла.

Другой участник группы сообщил, что у него трафик просел на 20%. При этом позиции самого сайта практически не изменились. Такое обычно бывает, когда в выдаче увеличивается количество блоков с ответами (избранные сниппеты), «Пользователи также ищут», каруселей, новостей и других «полезных» функций Google, которые, как правило, сдвигают органику вниз.

По данным мониторинга Mozcast самые большие изменения произошли в новостях. Резкий скачок начался 5 ноября и достиг своего пика 7 ноября. Тогда же и начались распространяться слухи о новом апдейте Гугла.

История изменений выдачи в новостях Гугла

В целом, в группе SEO Signals Labs вебмастеры в основном сообщают о потерях позиций, а не о росте. И в Твиттере аналогичных сообщений намного больше.

Взгляд со стороны «серых» SEO-специалистов

Члены закрытой группы в Фейсбуке «The Proper SEO Group», обозначающие себя, как «серые» сеошники, в основном высказываются позитивно на счёт апдейта. Это сообщество занимается преимущественно PBN-ссылками.

Администратор группы опубликовал график из сервиса Accuranker, показывающий, что все его ключевые слова были на крутой восходящей траектории, причём один из участников отметил, что его график напоминает хоккейную клюшку.

Другой пользователь похвастался, что за неделю у него рост продаж составил порядка 30%, а в пятницу – 70%. Кто-то написал о серьёзных изменениях в Google Local.

Реакция на апдейт «чёрных» SEO-специалистов

Форумчане Black Hat World жалуются на колоссальные потери. У кого-то трафик упал на 40%. Однако некоторые из них сообщают об улучшениях от ноябрьского обновления Google.

По словам одного из членов форума:

Судя по всему, что-то происходит. Я видел, как на партнёрском форуме Amazon два человека заявили, что у них резко упал трафик. Мой вырос на 30% вчера и сегодня.

Форум чёрных сеошников

В другой ветке один из «чёрных» сеошников радуется:

Только сегодня я наконец-то увидел значительные улучшения…

Комментарии обычных вебмастеров на обновление алгоритмов Google

На форуме «Webmaster World» пользователи начали замечать изменения в среду 6 ноября. В четверг один из участников сообщества отметил, что не получил ни одной конверсии за 24 часа. Другой вебмастер сказал:

Поисковая выдача наполнилась вредоносными сайтами и хитрыми редиректами с доменов .cf .tk .ml .gq .ga.

Гугл больше не отличает легальные сайты от спамных. Это вызывает опасения. Анти-спам команда проиграла битву.

Судя по всему, эти наблюдения подтверждают ликование «серых» и «чёрных» сеошников.

Форумчанин под ником «Paperchaser» добавил:

На связи представитель индустрии развлечений. Наблюдаю большие подвижки в моей нише. Многие сайты серьёзно проседают в выдаче, а через несколько часов возвращаются на свои исходные позиции.

Мнение Роджера Монтти, редактора Search Engine Journal

Роджер не причисляет себя к какой-то определённой категории сеошников. Я частенько ссылаюсь на него в своих статьях и перевожу его посты, поскольку он предпочитает анализировать то, что делает Гугл в конкретный момент времени, и, исходя из этого, строить свою SEO-стратегию.

За 20 лет работы в сфере поискового маркетинга, он множество раз видел, как те или иные тенденции приходили и уходили, а потом снова возвращались. Например, давно ходят слухи, что Гугл решил плотно взяться за аффилиатные сайты. Но, если разобраться в деталях, оказывается, что поисковая система карает не всех подряд вебмастеров, создающих сайты под партнёрские программы, а только тех, кто использует при их продвижении устаревшие методы.

За последние 5 лет изменения в выдаче по большей части связаны с тем, как Google понимает поисковые запросы и решает, что именно имеет значение. По поводу недавних обновлений алгоритмов на форумах вы можете найти кучу информации, которая не соответствует действительности, поскольку основана на сомнительных источниках или неверных рассуждениях.

Примеры ошибочных выводов:

  • Совет, обязательно создавать на сайте страницу об авторе.
  • Советы по размещению экспертной аккредитации на сайте.
  • Советы по улучшению E-A-T.

Эти плохие советы были получены в результате использования Руководства Google по оценке качества поиска для понимания поисковых алгоритмов Google. Все эти теории были опровергнуты такими гуглерами, как Джон Мюллер и Гари Иллиес.

Аналитика по ноябрьскому обновлению алгоритмов Гугла

Рекомендации по оценке качества поиска можно использовать для определения целей конкретного веб-сайта и исходя из этих целей, можно создавать стратегии для достижения высоких стандартов.

Но этот документ никогда не был дорожной картой алгоритма Google. Это была дорожная карта для того, кто оценивает сайт. Вот и всё. Две разные вещи. Это руководство бесполезно для того, чтобы пытаться понять, почему сайт больше не ранжируется в выдаче так, как раньше. Потому что в Руководстве по оценке качества поиска нет секретов ранжирования.

Google не ориентируется на отдельные ниши

Гугл редко нацеливается на конкретную индустрию. В прошлом некоторые оптимизаторы продвигали идею о том, что поисковик целенаправленно преследует медицинские сайты. Они ошиблись и теперь у нас есть глупое название «Медицинский апдейт» в качестве напоминания об этом факте.

Google решил навести порядок в нише рецептов или путешествий?

Любой, кто говорит, что Гугл целится в блоги с рецептами или путешествиями, скорее всего, ошибается. Исторически, за некоторыми исключениями, обновления Google не предназначались для определенных отраслей. Обновления основного алгоритма Google посвящены таким вопросам, как релевантность информации.

Текущее обновление коснулось вебмастеров из разных ниш. Это большое обновление, затрагивающее широкий спектр тем.

Не соответствующий ожиданиям ответ от Google

13 ноября в Твиттере Google SearchLiaison (@searchliaison) подтвердил, что кое-какие обновления были. Но твит, говорящий о том, что они не отличались от других обновлений, происходящих постоянно, контрастировал с очевидной широтой и масштабом, с которым обновление чувствовалось вебмастерами. Многие утверждали, что это обновление было значительным и заслуживало большого руководства.

Официальный ответ от Гугла

Некоторые спрашивают, было ли обновление в Поиске на прошлой неделе. Мы провели, на самом деле, несколько апдейтов, как регулярно это делаем каждую неделю. В этом треде напоминание о том, когда и почему мы выпускаем специальные гайды для конкретных обновлений…

Вебмастеры недовольны отсутствием руководства

Официальный ответ Гугла не соответствует тому, что на своей шкуре испытали вебмастеры. Поэтому многие из них выразили своё недовольство.

Вебмастеры недовольны ответом Гугла

Примерный перевод:

Не уверен, почему наш контент был признан «отличным» на прошлой неделе, а на этой неделе уже нет. Мы потеряли 63% SEO-трафика за ночь. Годы тяжелой работы исчезли за несколько часов…

Согласна. Небольшое руководство по поводу того, почему он перестал быть таковым не помешало бы. В противном случае я даже и не знаю, куда идти дальше при написании качественного контента.

Распространённая тема среди жертв обновления: я играл по правилам Гугла и получал трафик на свой сайт, а теперь оказался не у дел.

Вебмастеры требуют откатить ноябрьское обновление поисковых алгоритмов Google

Ещё одна цитата:

Было бы здорово, если бы вы отменили это обновление. Мой трафик снизился на 30 процентов. Что сильно вредит моему бизнесу и семье в это время года. Я очень много работаю, чтобы придерживаться этических практик SEO. И это было больно.

Не просто очередное обновление

Заявление Google SearchLiaison о том, что обновление не было необычным, противоречило необычайному негодованию вебмастеров в Twitter и других местах.

Понятно, что это обновление не было похоже ни на какое другое, которое Google обычно выкатывает на неделе. Оно было настолько широко распространено и так остро ощущалось, что его сравнивали с разрушительным Google Penguin 2012 года.

Вот что написал 11 ноября у себя в Твиттере Кевин Индиг (вице-президент по SEO и контенту @G2dotcom, ментор @GA_Tech):

Вау, последнее обновление алгоритма Google получилось АГРЕССИВНЫМ!

Некоторые сайты трясутся так, будто сейчас 2012 год, и Google только что выпустил первое в истории обновление Пингвина.

Это влияние BERT или чего-то ещё? Как вы думаете?

Самое агрессивное обновление Google за 2019 год

Судя по SEO-сообществу, аналогия не является преувеличением. По влиянию на вебмастеров Google November Update 2019 действительно можно сравнить с наиболее жестокими апдейтами: Флоридой 2003 и Пингвином 2012.

Обновление породило нерелевантные результаты

Помимо ликования спамеров, о которых уже писалось выше, некоторые сеошники обратили внимание на появление нерелевантных результатов в поисковой выдаче Гугла. Одна из фуд-блогеров под ником @TheCozyCook пожаловалась в Твиттере Гуглу, что по запросу «рецепт фрикаделек» наблюдает в выдаче рецепт тыквенных кексов без глютена:

Нерелевантные запросу результаты поисковой выдачи Гугла

Может это вторая часть Берта?

Согласно короткому заявлению Google SearchLiaison, в ноябрьском обновлении произошёл ряд изменений. Разумно предположить, что это может быть расширением, выкаченного ранее, Google BERT. Как минимум в трёх разных источниках видел, что оптимизаторы грешат на агрессивное использование ключевых слов, в том числе с применением софта.

Предположения о влиянии BERT

У британского эксперта по поисковому маркетингу и алгоритмам Доун Андерсон (@dawnieando) было несколько интересных «предположений» о том, как BERT может повлиять на результаты поиска.

Она написала в Твиттере:

Просто предполагаю, но после выхода Google BERT переоптимизировать стало намного легче, ведь он разработан фактически, чтобы предотвращать или сводить на нет потребность в этом неестественном языке в пользу более естественного человеческого языка. Это только мои мысли.

Если сопоставить такую гипотезу с просадками сайтов рецептов и путешествий, учитывая их переспамленный контент, можно подумать, что слова Доун имеют право на жизнь. Бостонский эксперт по поисковому маркетингу Дэйв Мэтсон (@davematson) написал в Твиттере в ответ:

Интересно. Действительно, если Берт лучше понимает естественный язык и контекст, вероятно, он также видит неестественный текст, злоупотребление ключевыми словами и т.д.

Влияние Берта на позиции сайтов

Многие SEO-специалисты склонны согласиться с тем, что в этом обновлении может присутствовать хотя бы какой-то компонент, связанный с релевантностью. В тех случаях, когда Google публично обсуждал обновления, изменения почти всегда были связаны с ней. Так обстоит дело и с BERT, который также имеет отношение к релевантности.

Короче говоря, Гугл все выходные игнорировал вебмастеров, а когда соизволил ответить за апдейт, оказалось, что лучше бы молчал.

Как вернуть позиции и трафик после Google November Update 2019

Гугл любит повторять, что нельзя что-то «исправить» и вернуть себе топовые позиции в выдаче. А надо просто «делать хорошие сайты» и «качественный контент». Не обошёл стороной он свою мантру и на этот раз. Но как же так? Давайте разбираться, что не нужно чинить, а на что обратить внимание.

Судя по всему, традиционные вещи, на которые ориентируются SEOшники, в основном – техническое SEO, не имеют ничего общего с исправлением последствий обновления, которое, скорее всего, связано с релевантностью. Некоторые оптимизаторы утверждают, что у каждого просевшего сайта, который они проверяют после ноябрьского апа, имеются серьёзные проблемы с техническими факторами SEO.

Что ж, это утверждение теряет силу, если учесть тот факт, что большинство технических факторов оспариваются. Знаете ли вы, например, что скорость страниц сайтов замедляется? Если вы проверите сайты из топа поисковой выдачи, то обнаружите, что у большинства из них дела с техническим SEO идут довольно паршиво. Тем не менее, это не мешает им стабильно быть в топ-3.

Скорость загрузки страниц

Скорость страницы важна. Но даже сам Джон Мюллер из Google указал, что скорость страницы является одним из факторов ранжирования, многие из которых важнее. Если у вас есть какие-либо сомнения, проверьте, насколько медленными являются сайты из топа Гугла для любого конкретного поискового запроса.

На очередной встрече с вебмастерами, один из участников пожаловался, что оптимизировал скорость загрузки своего сайта по полной, а его в выдаче всё равно опережают медленные конкуренты:

Вебмастер спросил Джона Мюллера:

Как насчет скорости для мобильной версии? … Почему многие топовые сайты всё ещё такие медленные?

И Мюллер ответил:

… Хорошо то, что у нас много факторов ранжирования. Таким образом, вам не нужно делать всё идеально.

Но это также означает, что вы можете сталкиваться с такими ситуациями, когда Google говорит, что скорость важна, а при этом топовые сайты в выдаче не такие быстрые, поэтому она не должна быть важна.

Для нас она определённо важна. Но это не значит, что это как бы отменяет все остальные факторы.

Видите последнюю часть цитаты про остальные факторы? Как на счёт релевантности, популярности и других факторов, связанных с пониманием того, что именно пользователи хотят видеть, когда делают поисковый запрос?

Не имеет смысла ранжировать сайт ниже из-за низкой скорости, если он является наиболее релевантным ответом на поисковый запрос пользователя. Цель номер один – удовлетворить поисковый запрос.

Вот вам ещё один факт: мобильные сайты становятся медленнее. Взгляните на график из HTTP Archive:

Скорость загрузки мобильных сайтов ухудшается

С января по октябрь 2019 скорость первой отрисовки контента замедлилась на 24%. А с декабря 2016 – на 50%!

Если вам оптимизатор втирает, что позиции просели из-за скорости сайта, проверьте его слова, посмотрите на скорость конкурентов по выдаче. Скорее всего, их показатель не сильно будет отличаться от вашего.

Я не принижаю значимость скорости загрузки страниц. Она чрезвычайно важна для конверсий, рекламных кликов и удержания внимания посетителей. Просто говорю, что, как фактор ранжирования, скорость страницы сильно переоценена.

Нежелательные ссылки и их отклонение

Каждый сайт в топе имеет «нежелательные» обратные ссылки. Google игнорирует платные и ненужные ссылки, потому что важно, чтобы веб-страница отвечала на поисковый запрос, а не имела миллион бэков. Если документ хороший, он всё равно будет в топе.

Да, покупные ссылки могут помочь вам в продвижении. Но если это просто ссылка ради ссылки, через определённое время (неделя, месяц) сайт вернётся на прежние позиции. Гугл поймёт, что ссылка неестественная и начнёт её игнорировать.

Исходя из практики восстановления, ручные санкции могут быть применены к сайту, когда достигаются определённые пороги спамности. Например, если обычный сайт начинает получать тысячи обратных ссылок с оптимизированными анкорами с других обыкновенных сайтов, ему может прилететь метка, и он подвергнется ручной проверке.

Ссылки с нетематическими оптимизированными анкорами, установленные на спамных сайтах, игнорируются Гуглом. Одной из причин отбрасывания таких ссылок является отсутствие релевантности между двумя, связанными документами. Другая причина заключается в том, что это соответствует статистическому среднему значению для нормальных ссылочных паттернов.

Недобросовестные сеошники годами используют эту лазейку для «стрижки», слабо разбирающихся в теме, клиентов. Они берут деньги, закупают ссылки, получают рост позиций. Потом Гугл эти ссылки перестаёт учитывать и всё возвращается на круги своя. Как пороговое значение спамности преодолевается, сайт получает наказание. Контракт на продвижение разрывается, и оптимизатор уходит искать новых «клиентов».

То, что сайты, продвигаемые спамными бэками, могут иметь хорошие позиции – факт. Джон Мюллер официально заявляет, что Google игнорирует спам-ссылки, если контент достаточно хорош.

Вот вопрос одного из вебмастеров на видеовстрече в Hangouts:

Я наблюдаю огромное количество ссылочных сеток и нечестных схем линкбилдинга… Я сообщил об этом, как предлагалось, но есть ли что-то ещё, что мы можем сделать?

Это действительно расстраивает.

Джон Мюллер тогда ответил:

… когда дело доходит до конкурентных ниш, мы часто видим, что некоторые сайты делают что-то действительно хорошо, а некоторые делают очень плохо.

Мы стараемся увидеть общую картину и используем её для ранжирования.

Например, может случиться так, что сайт злоупотребляет ключевыми словами, но за ним фантастический бизнес и людям нравится находиться там, находить этот сайт в поиске. Поэтому у нас имеется множество других положительных сигналов об этом сайте.

Таким образом, мы всё ещё можем показывать его на первой строчке выдачи, даже несмотря на злоупотребления ключевыми словами.

Дело в том, что Google не собирается снижать позиции сайта на 30% или 90% из-за ссылок. Если людям понравился сайт на прошлой неделе, то в Google он по-прежнему будет занимать первое место на этой неделе, после обновления алгоритма.

Если ваш сайт просел, очень маловероятно, что это произошло из-за случайных спам-ссылок.

Несуществующие страницы и 404 ошибки

404 ответ сервера – это нормально. Вот что сказал господин Джон Мюллер из Google о 404 ошибках:

…если мы проверяем ссылки и видим ошибку сервера или ошибку «Страница не найдена», то об этом мы сообщим вам в Консоли Поиска. …и это нормально. … Вам не о чем беспокоиться.

Почему сайты теряют позиции?

Если читать или слушать то, что говорят нам гуглеры, становится понятно одно: Google хочет сопоставить соответствующие веб-страницы с поисковыми запросами. Они заявляют, что недавнее обновление BERT было сделано для лучшего понимания 10% поисковых запросов на английском языке. Это всё касается релевантности.

Причина, по которой Гугл изменил атрибут «nofollow» с директивы (что-то, чему Гугл обязан подчиняться) на подсказку (что-то, что Гугл может игнорировать, если захочет), заключается в релевантности. В частности, Гари Иллис из Google заявил, что причина в том, что Google хочет использовать сигналы nofollow-ссылок для улучшения релевантности.

Роджер Монти задавал ему прямой вопрос:

Гугл проводит эти изменения, потому что хочет усилить ссылочные сигналы для улучшения результатов поиска?

Ответ был таков:

Да. Гугл упускает важные данные о ссылках из-за nofollow. Если учесть ссылки с rel=”nofollow”, поисковая система сможет предоставить лучшие результаты.

Другим примером является прошлогодний «Медицинский» апдейт с дурацким названием. То обновление затронуло не только медицинские сайты. Многие проекты, связанные со здоровьем, потеряли позиции. Причина, по-видимому, заключается в том, что Google решил, что пользователи предпочитают веб-страницы, на которых информация подкреплена научными данными, а не страницы о средствах народной медицины или ещё какой-нибудь ерунды, которая к настоящей медицине имеет весьма посредственное отношение.

Это проблема релевантности. Так называемый «Медицинский» апдейт явно касался вопросов релевантности, а не биографий авторов или их «экспертности».

Выводы

В Google произошли два недавних изменения, которые следует учитывать.

  1. Первое – изменение атрибута nofollow с директивы на подсказку. Это означает, что в качестве факторов ранжирования теперь используется множество ссылок, которые раньше не учитывались.
  2. Вторым важным изменением является BERT, который, как говорят, затрагивает 10% поисковых запросов, включая такие вещи, как избранные сниппеты. Одни только блоки с ответами могут объяснить некоторое снижение трафика.

Оба эти фактора, nofollow-ссылки и BERT, имеют отношение к релевантности. Я не говорю, что BERT и nofollow-ссылки являются ноябрьским обновлением. Вполне возможно, что существуют другие факторы, влияющие на изменения позиций.

Релевантность и технические проблемы

Исправление проблем с факторами технического SEO важно. Но чтобы оправиться после ноябрьского обновления, возможно, стоит поискать проблемы с релевантностью. Они могу играть куда большую роль. Практически в каждом апдейте Гугл говорит о релевантности, как об одном из факторов ранжирования.

Лишь несколько обновлений касались других элементов. Например, «скоростное», которое ввело скорость загрузки страниц в качестве (слабого) фактора ранжирования. И когда это произошло, Гугл уведомил вебмастеров. То же самое было с Пандой (связанной с контентом) и Пингвином (связанным с ссылками).

Основной вывод из этого текста на 3,200+ слов: если Гугл не предоставляет какой-то специальной информации, лучше всего копать в сторону релевантности.

ПОНРАВИЛСЯ ПОСТ? ПОДЕЛИСЬ ССЫЛКОЙ С ДРУЗЬЯМИ!

Получать новые публикации по электронной почте:

СТАТЬИ ИЗ РУБРИКИ:

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x