SEO на практике. Что работало в 2015 и прогноз на 2016.

Автор — Наталья Штанюк, 10 Января 2016 Подготовлено для cossa.ru

После того, как 15 мая Яндекс запустил алгоритм «Минусинск», который опускает в органической выдаче сайты с большим количеством покупных SEO-ссылок, стало понятно – эпоха старого SEO (оптимизация для поисковика) практически завершена, и для вывода сайта на верхние позиции выдачи нужно кардинально корректировать подход к продвижению. Об изменениях в поисковых алгоритмах и эффективных методах продвижения в 2015 году, а также о прогнозах на 2016 год, рассказывает Наталья Штанюк - руководитель направления поискового продвижения "Директ Лайн".

В этом году произошли большие изменения в поисковом маркетинге – их анонсируют Яндекс и Google, их обсуждают на форумах и конференциях. Изменений много, но встаёт вопрос – всё ли из этого работает? Наши SEO-специалисты под руководством Натальи Штанюк составили список изменений, которые за 2015 год удалось проверить на практике и сказать – да, эти факторы действительно влияют и будут влиять на позиции сайта в органической выдаче Яндекс и Google.

1.jpg
 
При определении позиции сайта в выдаче поисковые системы глобально оценивают 4 фактора:
  • Структуру и содержимое сайта.
  • Поведение пользователей на сайте.
  • Переходы на сайт с внешних источников.
  • Безопасность сайта.

1452581626 (5).jpg



Изменения в алгоритмах поисковых систем

Яндекс весь год работал над лучшим распознаванием содержимого сайтов: увеличил возможности микроразметки, добавил новые возможности управления сниппетами, запустил свои расширения на Schema.org, анонсировал API Валидатор семантической разметки, запустил в тестирование распознаватель JavaScript.
Google научился полноценно анализировать содержание JavaScript, а в сентябре заявил, что скоро может начать рассматривать наличие микроразметки в качестве сигнала ранжирования.


На практике

Мы стали больше работать над полнотой информации, главная задача при этом – разместить тот контент, который полезнее для пользователя, пришедшего с поиска на целевую страницу. Это могут быть советы по выбору товара, ответы на вопросы, экспертное мнение, подсказки по использованию и прочая информационная поддержка. Для определения востребованной информации разговариваем с клиентом, анализируем сайты, находящиеся в топе по этой тематике, смотрим на поведение пользователей средствами веб-аналитики: карты скролинга, карты кликов, показатели отказов, АБ-тестирование. Все тексты важно перерабатывать с учётом критерия «полезность». Текст должен помочь пользователю сделать выбор, ответить на возможные вопросы – «в чем особенности?” “почему это предложение лучше?». При этом сделать это быстро (небольшой объём), чётко (меньше воды) и просто (структура). Наша практика говорит о том, что размещение ключевых фраз в тексте больше не является первоочередной задачей, главное - тематичность, поэтому свободно заменяем ключевые слова на однокоренные и похожие термины. В состав информации на сайте включаем коммерческие факторы - набор показателей, которые характеризуют надежность онлайн-продавца. Это может быть ассортимент, способы оплаты и доставки, уровень цен, наличие представительств и многое другое. 

1452581626 (2).jpg



Изменения в алгоритмах поисковых систем

Рост этого фактора ожидаем, т.к. качество поисковой выдачи – одна из главнейших целей поисковых систем, а развитие технологий позволяет оценивать его всё точнее. Поисковые системы оценивают огромное количество измеримых и неизмеримых факторов поведения пользователей по сложному секретному алгоритму. Из тех, которые можем отследить и мы - это измеримые метрики: глубина просмотра, время на сайте, отказы, возврат в поисковую выдачу, кликабельность сниппета, соответствие сайта устройству просмотра и прочие.
Яндекс запустил в июне в тестовом режиме новый подход к определению релевантности документов – он стал подмешивать в видимую выдачу сайты, по которым пользовательской информации недостаточно для принятия решения о полезности документа, а иными словами в ТОП-20 стали появляться незамеченные ранее там сайты. Если Яндекс даже временно готов пожертвовать качеством выдачи, то очевидно он будет использовать все возможности сбора данных о поведении пользователей на сайтах и в поисковой выдаче. Поэтому если раньше юзабилити и SEO шли параллельно друг другу, и даже в чём-то противоречили друг другу, то сейчас к продвижению следует подходить комплексно, в том числе занимаясь юзабилити, чтобы поведение пользователей отражало их интерес к сайту. Таким образом, для продвижения кроме оптимизации сайта для системы, нужно его оптимизировать для пользователей - система это оценит.
Google заявил о влиянии на ранжирование сайтов в мобильной выдаче их адаптации под мобильные устройства. Наши эксперименты показали, что сейчас этот фактор не оказывает значительного влияния на ранжирование. Но в 2016 году стоит ожидать развития алгоритма распознавания сайтов, адаптированных под мобильные устройства, и усиление этого фактора. Поэтому в ближайший год следует запланировать работы по такой адаптации для сайтов, у которых значительная доля трафика приходится на мобильные устройства или заметна тенденция к увеличению объема мобильного трафика. Яндекс же, в свою очередь, выпустил в Вебмастере инструмент «Проверка мобильных страниц» и сообщил, что этот фактор будет играть роль в поисковой выдаче для мобильных устройств.


На практике

Мы стали больше работать с улучшением поведенческих характеристик во время стабильных позиций сайта в выдаче. Для понимания где есть недочёты и как их можно исправить, используем данные Яндекс.Метрики - карты кликов, карты ссылок, вебвизор, отказы. Глубина работы с сайтом в этом направлении зависит от состояния сайта, задачи и бюджета.

1452581626 (3).jpg



Изменения в алгоритмах поисковых систем

Все поисковые системы усилили борьбу с некачественными покупными ссылками. В Яндексе крупнейшим событием по борьбе с покупными ссылками стал алгоритм «Минусинск». С 15 мая сайты, которые имеют большое количество купленных ссылок, в любой момент могут практически полностью пропасть из поисковой выдачи Яндекса. В помощь «Минусинску» 8 сентября был обновлён алгоритм «АГС» до «АГС--», который наказывает сайты, продающие ссылки. В отличие от предыдущих версий алгоритма, под действие нового «АГС--» попадают не только сайты по продаже ссылок для SEO, но и качественные сайты с естественной посещаемостью, использующие продажу ссылок в качестве одного из способов монетизации. В результате качественные сайты, получающие достаточный доход с рекламы, уже начали отказываться от продажи ссылок через биржи, а значит, ссылки, которые поисковая система сочла бы естественными, получить становится всё сложнее. 
Со стороны Google в 2015 году не было значительных изменений в учёте ссылок, однако Google ведёт борьбу с покупными некачественными ссылками уже давно – с 2012 года у них работает автоматический алгоритм «Пингвин» и возможно наложение ручных санкций на сайты, которые чрезмерно используют искусственные ссыл­ки. 
Несмотря на это, ссылки остаются одним из важных факторов ранжирования, однако теперь только лишь за счёт объёма невозможно улучшить или удержать позиции. Напротив, избыток покупной ссылочной массы может навредить сайту, понизив его позиции. При таком положении вещей становится важным привлекать ограниченное количество наиболее качественных (естественных) ссылок, по которым переходят реальные пользователи. 


На практике

Мы постоянно анализируем ссылочную массу и составляем план не только привлечения, но чистки ссылок - снимаем некачественные ссылки, в том числе купленные до нас вечные.

1452581626 (4).jpg


Изменения в алгоритмах поисковых систем

Если ранее вредоносные сайты оставались в поисковой выдаче с соответствующей пометкой, то в 2015 году и Google, и Яндекс стали занижать позиции таких сайтов в поиске. Кроме очевидной борьбы с вирусами, поисковые системы благосклонны к безопасному протоколу передачи данных https. Google заявил о влиянии этого фактора напрямую, а Яндекс просто перевёл все свои сервисы для вебмастеров на https, что можно расценивать как прогноз усиления этого фактора в будущем. Пока влияние протокола на ранжирование сайтов очень слабое, но в перспективе ожидается усиление его влияния в обеих поисковых системах.


На практике

Если сайт регулярно заражают вирусы, то рекомендуем переводить его на более безопасные CMS. Приоритет сайтов с https просто имеем ввиду и не рекомендуем всем подряд. Однако сайтам, на которых происходит сбор и обработка персональных данных пользователей, рекомендуем уже сейчас в плановом режиме переводить сайт на безопасный протокол передачи данных https.


Как же всё-таки продвигать сайт в 2016 году? 

Все наблюдаемые изменения говорят о стремлении поисковых систем комплексно анализировать содержимое сайта, чтобы определять истинные потребности пользователей и предоставлять им наиболее релевантные документы. Время искусственной манипуляции выдачей закончилось: большинство искусственных накруток достаточно хорошо выявляются поисковыми системами и либо не учитываются в ранжировании, либо приводят к понижению сайта в поисковой выдаче. Это значит, что для успешного продвижения SEO-специалистам нужно отойти от точечной оптимизации посадочных страниц и работать с сайтом в целом, ориентируясь на 4 главных направления, которые позволят добиться результатов: 
  1. Правильно определить целевой спрос: максимально полно и точно определить семантическое ядро, типизировать запросы. Здесь важно подобрать не только очевидные высокочастотные запросы, но и работать с низкочастотными. В зависимости от тематики, низкочастотные могут принести больший доход, т.к. их формулируют пользователи, настроенные на покупку, в то время как высокочастотные могут принадлежать пользователям, которые ищут информационные статьи.
  2. Максимально полно описать услугу/товар на релевантных страницах и показать на сайте преимущества компании, условия сотрудничества, доставки, цены и другую важную для клиентов информацию. Всё это поисковая система может оценить по коду сайта и по поведению пользователей на сайте. Для проектирования контента собирать максимально полные сведения о потребностях пользователей - разговаривать с владельцами сайта, использовать веб-аналитику для оценки взаимодействия пользователей со страницей и ее элементами, анализировать конкурентов в выдаче. Это поможет одновременно сделать информацию более релевантной и повысить отдачу от действующего трафика, а также улучшить поведенческие характеристики и соответственно позиции сайта.
  3. Обеспечить пользователям удобство при навигации и взаимодействии с сайтом, учитывая их интересы (в соответствии с запросами), пути входа и пути по сайту.
  4. Обеспечить корректную индексацию сайта поисковыми системами и максимально полное представление сайта в поисковых сервисах.

Смещение акцентов при построении поисковой выдачи в сторону качественных и удобных для пользователей сайтов, оказало заметное влияние на ускорение темпов развития систем сквозной аналитики до продаж (Universal Analytics, Call Tracking, eCRM) и их интеграции сайтом. Борьба за пользователей уже не ограничивается только позициями, важно заинтересовать потенциального клиента и обеспечить удобство в оформлении заказа/ознакомлении с услугами и т.д. А значит, оценка эффективности вложений рекламных бюджетов с позиций или трафика смещается в сторону оценки доходов, которые принесло поисковое продвижение. 

В перспективе тенденция внедрения сквозной аналитики и оценки интернет-маркетинга по бизнес-показателям будет распространяться всё сильнее. Стимулировать этот процесс будет рост стоимости привлечения клиента/продажи вследствие постоянного усиления конкуренции в интернете. А, значит, ещё сильнее будет повышаться значение оптимизации сайтов не для поисковых систем, а для пользователей.

Больше статей по теме:

Мультирегиональное
продвижение

Проверенные и работающие инструменты для увеличения продаж в любом регионе России и странах СНГ. Подробнее

Нам доверяют