Нужно признать, что мы все через это проходили — в одно ничем неприметное утро трафик сайта резко проседает.

Ситуация сложная, требует взвешенного подхода и хорошей аналитической работы. Многие веб-мастера делают поспешные выводы и без тщательного анализа начинают подозревать «зверинец» Google Panda и Penguin, переходя к активным действиям, которые часто являются ошибочными. Образно говоря, лечение пациента без правильно поставленного диагноза — идея авантюрная, которая может привести к трагическим последствиям.

В этой статье я расскажу вам о том, как установить причины проседания трафика из поисковой системы Google (многие этапы анализа аналогичны и для других поисковых систем, но рассказать о специфике каждой из них в одной статье невозможно).

Проседание трафика

Предисловие

Нужно верить в лучшее! Иногда причина «страшных» показателей падения трафика кроется не в коварном Google, а в некорректном коде Google Analytics (или же любой другой метрики). Не стоит недооценивать такую вероятность — это случалось и на моей практике, и на практике большинства моих коллег. В первую очередь, проверьте наличие кода аналитики на всех страницах сайта, убедитесь в отсутствии ошибок. Это можно сделать с помощью GA Checker или плагина для Chrome Google Analytics Debugger.

Откуда и какой именно трафик просел?

Первой стадией любого ремонта является определение самой поломки и ее масштаба. В нашем случае необходимо проанализировать трафик — с какой именно поисковой системы он просел, на какие страницы и не является ли такая динамика закономерной для сезона? Приступим.

1. С какой поисковой системы уменьшился трафик?

Заходим в Google Analytics на вкладку «Источники трафика → Каналы» и выбираем область «Organic Search». Указываем период для сравнения и анализируем данные. Нужно обратить внимание на то, с какой именно поисковой системы трафик просел — это важно, поскольку определяет, где именно проблема. Если трафик уменьшился с Google и Yandex, то можно сделать вывод о возможных технических проблемах на сайте либо сезонном спаде посещаемости.

С какой поисковой системы уменьшился трафик?

2. Какие страницы пострадали?

При анализе должное внимание нужно уделить «Страницам входа» (на которые переходят пользователи с ПС). В Google Analytics выберите вкладку «Поведение → Контент сайта → Страницы входа». В сравнении с предыдущим периодом, можно определить, какие именно страницы потеряли трафик, и есть ли такие, где посещаемость осталась без изменений. Данные будут полезны при определении возможного фильтра за неестественные ссылки или же технических проблем на конкретных страницах — все это мы будем разбирать дальше в статье.

Какие страницы пострадали?

3. Не является ли проседание трафика сезонным явлением?

Трафик во многих видах деятельности зависит от сезона и заметно колеблется. И я говорю не только о таких видах бизнеса, как продажа мотоциклов или лыжного снаряжения, где это очевидно, но и о других, менее явных направлениях. Проверить «сезонность трафика» можно, проанализировав динамику за аналогичный период прошлого года.

Не является ли проседание трафика сезонным явлением?

Или воспользоваться такими инструментами, как Google Trends или Планировщик ключевых слов (Google AdWords).

Итого: на первом этапе важно локализовать проблему, разобраться, когда и где именно просел трафик, и лишь после этого, имея четкую картину, приступать к анализу возможных причин падения трафика.

Анализ причин проседания трафика с Google

Давайте разберем подробно основные возможные причины падения трафика.

Анализ причин проседания трафика с Google

2. Проседание трафика, связанное с техническими проблемами сайта

Запрет от индексации, проблемы с внутренней оптимизацией, DownTime сервера могут служить причиной потери трафика. Давайте рассмотрим основные технические моменты, которые непосредственно влияют на ранжирование.

Страницы сайта закрыты от индексации (noindex)

Популярная проблема: при выполнении тех. правок для трафиковых страниц ошибочно прописали сток

Это приведет к тому, что страницы выпадут из индекса поисковых систем и, соответственно, перестанут получать трафик. Для обнаружения таких проблем можно воспользоваться Screaming Frog Seo Spider или любым другим «пауком».

Страницы сайта закрыты в robots.txt

Да, друзья, и такое случается. Я даже не говорю об экстремальном случае закрытия всего сайта, а, скорее, об ошибках в robots.txt, которые происходят из-за невнимательности и, в основном, из благих помыслов. Например, хотели закрыть дубли и прописали

А оказалось, что у Вас в директории /category/ ряд важных страниц. В результате, страницы попали во второстепенный индекс, а дальше — проседание трафика и другие неопрятности.

Настроен неверный rel=»canonical» для страниц сайта

Одна строчка этого кода, прописанная на неканонической странице, может иметь серьёзные последствия — произойдет «слейка» и страница выпадет из индекса. Коварство такой ошибки в том, что можно потерять время, в пустую анализируя ссылочную массу и другие возможные проблемы (а иногда можно и «найти» проблему там, где ее нет). В таком случае, на этапе аудита нужно воспользоваться инструментом типа Screaming Frog Seo Spider для обнаружение проблем с ошибочной каноникализацией страниц.

Сменили ряд URL

Возможен вариант, когда в процессе работы над сайтом изменили структуру URL или внедряли ЧПУ, но 301 редирект настроен не был (ошибочно настроили 302 или вообще не сделали). В результате, вес на новые URL не передастся, появятся дубли, что очень негативно может сказаться на ранжировании и трафике. Либо «старые» страницы заглушили через 404 Not Found, что фактически лишает сайт авторитета и ссылочной массы, которые накопили эти страницы. При миграции страниц обязательной является настройка 301 редиректа.

Слетел 301 редирект с предыдущего домена

С целью выхода из-под санкций или же брендинга, смена домена сегодня не редкость. И если даже на момент «переезда» все было сделано правильно, то это не гарантирует, что в дальнейшем редирект не слетит. Результатом в таком случае может быть проседание позиций вследствие потери статического веса, который передавали страницы предыдущего домена. В процессе аудита можно проверить корректность 301 редиректов через Вertal или же вот такой плагин для Chrome (вы же понимаете, что способов очень много, а приведенные в примере — то, чем, в основном, пользуюсь я).

Не оптимизированные или дублирующиеся мета-теги

Проверьте, не слетели ли оптимизированные мета-теги на ключевых страницах сайта. Последствиям таких действий могут быть существенные проседания трафика с поисковых систем на конкретных страницах (вот тут вам пригодится анализ, описанный выше).

Также не стоит забывать и о негативном влиянии на продвижение и трафик такого явления, как дублирование мета-тегов. Быстрый способ проверить наличие таких дублей — в Google Webmaster Tools на вкладке «Оптимизация HTML».

Неоптимизированные или дублирующиеся мета-теги

Как вы видите на скриншоте, на сайте есть ряд страниц с дублирующимися Title и Description.

Дублирование страниц

Устранение дублирования страниц является одной из основных целей внутренней оптимизации. Если же к этой задаче не отнестись серьезно, то со временем в индекс могут попадать множество страниц с таким же содержимым, но доступные под другими URL — страницы фильтрации, пагинации, сортировок, пользовательских сессий, страниц корзины и т.д. Чтобы обнаружить проблему, можно воспользоваться тем же Screaming Frog Seo Spider и проанализировать все возможные страницы с get параметрами. Полезно будет заглянуть в Google Webmaster Tools на вкладку «Статус индексирования» и посмотреть количество страниц в индексе и динамику по ним (если вы видите, что за последний месяц Google увидел +10 000 страниц, а новый контент не добавлялся, то это причина задумаются над тем, что происходит). Что касается того, чтобы посмотреть какие страницы находятся в индексе Google через оператор site:mysite.com, то, конечно, это будет не лишним, но многие страницы поисковик все равно не показывает, поэтому особо надеяться на данный способ я бы не советовал.

Проблема с дублирование часто возникает также из-за некорректной настройки ответа сервера на запрос несуществующей страницы (возвращает, для примера, HTTP/1.1 200 OK, а не HTTP/1.1 404 Not Found) — 404 ошибка не возвращается и всевозможные варианты УРЛов попадают в индекс. Проверять ответ сервера удобно через Вertal или же удобный плагин для Chrome Redirect Path.

Проблема с хостингом

Частый DownTime хостинга, медленная скорость отдачи страницы, безусловно, может негативно повлиять на позиции и трафик сайта. Учитывается то, что «медленные» сайты несут негативный пользовательский опыт и часто посетители не дожидаются загрузки страницы, возвращаясь на страницу поиска. Также из-за DownTime сервера поисковые боты не могут нормально индексировать сайт. Обратите внимание, если GoogleBot не может получить доступ к сайту, то вам, скорее всего, будет отправлено сообщение в Google Webmaster Tools с темой «Робот Googlebot не может получить доступ к вашему сайту» — на эту проблему стоит обратить внимание и рассмотреть вариант смены хостинга или перехода на другой тариф.

Сайт «хакнули»

Иногда обнаружить, что сайт был хакнут, не так просто, как кажется многим. Популярной моделью взлома является, например, не размещение ссылок на активных страницах сайта, а создание целых новых категорий спамерского контента, что намного сложнее заметить. Когда поисковая система обнаруживает такие страницы, она пессимизирует сайт целиком, что приводит к проседанию позиций и трафика. К счастью, в своем Google Webmaster Tools поисковая система вас уведомит о проблеме и вы сможете принять правильное меры. Там же (в GWT), на вкладке «Проблемы с безопасностью», можно самостоятельно проверить не обнаружено ли на сайте вредоносное ПО.

2.2. Проседание трафика связанные с неуникальным/некачественным контентом

Наполнение сайта качественным, полезным и уникальным контентом является основой успешного продвижения. Поэтому, при падении трафика, нужно особенно тщательно проанализировать контентную составляющую — актуальность и уникальность материалов.

Даже если сайт изначально наполнен авторским контентом и вы ни у кого ничего «не заимствовали», это не гарантирует отсутствие проблем — возможно, украли у вас. Как не абсурдно это звучит, но довольно часто встречается, что страницы-«плагиатчики» Google ранжирует выше первоисточника: две абсолютно одинаковые страницы не могут быть в ТОПе, поэтому не странно, что одна из них «вылетит» во второстепенный индекс. Проверить уникальность текстов можно с помощью специальных сервисов, либо вручную посмотреть, как страница ранжируется по куску текста. Главный критерий при этом — ваша страница должна быть в выдаче на первом месте. Если обнаружилось, что контент разворовали, вместо того, чтобы переписывать, более рационально отправить DMCA запрос на удаление таких материалов с индекса Google.

Как известно, Google разработал специальный фильтр, который нацелен на борьбу с некачественным контентом — Google Panda. Вот что подразумевается под понятием «некачественный контент»:

  • большое количество неуникальных текстов (в разрезе интернета);
  • внутренние дубли страниц;
  • thin контент;
  • переспам в текстах и мета-тегах ;
  • машинно-генерируемый контент;
  • агрессивная перелинковка (с использованием одних и тех же КС);
  • скрытый текст;
  • клоакинг;
  • и другое.

Детально о том, как определить, что сайт под Google Panda, можно прочитать здесь, я же остановлюсь только на основных моментах:

  • трафик и позиции просели резко «нырнули»;
  • сайт не ищется по кускам текста и title;
  • в Google Webmaster Tools много страниц выкинуло с индекса ( Индекс Google → Статус индексирования);
  • пессимизировало весь сайт, а не отдельные страницы;
  • в Google Webmaster Tools намного уменьшилась частота индексирования (Сканирования → Статистика сканирования).

Проседание трафика связанные с неуникальным/некачественным контентом

2.3. Проседание трафика, связанный с неестественной ссылочной массой сайта

Вот мы и добрались до самого сложного и самого интересного — как определить качество ссылочной массы? Какие именно ссылки могли послужить причиной пессимизации и проседания трафика?

Заспамленность ссылочного профиля сайта

Сравнение анализаторов беклинков: кто точнее находит внешние ссылки?

При анализе ссылок рекомендую пользоваться ahrefs. Задайте себе следующие вопросы:

  • настроены ли на сайт 301 редиректы?
  • есть ли сквозные ссылки?
  • есть ли арендные ссылки?
  • есть ли ссылки с линкомоек, не модерируемых каталогов (не для людей)?
  • есть ли партнерские ссылки (reciprocal links)?
  • есть ли неестественные ссылки в комментариях на блогах (спамные, проставленные программно, не релевантные посту)?
  • есть ли ссылки с подписей в форумах?
  • есть ли ссылки, которые размещены на площадках, созданных лишь для продажи ссылок?
  • присутствует ли в анкор-листе большое количество однотипных коммерческих запросов (например, «купить ламинат киев»)?
  • есть ли ссылки, которые не являются естественными, и которые покупали не вы (нужно рассмотреть возможность Negative SEO)?
  • были ли ссылочные взрывы?

Если на один или несколько вопросов выше вы ответили «да», то вероятность того, что трафик просел из-за песимизациии за ссылочный фактор, исключать нельзя. После пересмотра ссылочной массы спамные ссылки отправьте в Disavow Links Tool.

Наложены ручные санкции

Google Webmaster Tools является отличным инструментом поисковой оптимизации и, нужно отдать должное Google, еще и площадкой коммуникаций поисковой системы с вебмастером.

Самое, пожалуй, неприятное сообщение, которое можно получить от Google — Меры, принятые в ручную (вкладка «Поисковый трафик → Меры, принятые в ручную»). Наличие сообщения о том, что «меры, принятые в ручную, действуют в отношении определенных страниц, разделов или ссылок» (это в лучшем случае) говорит о том, что причина проседания трафика установлена — осталось понять за что именно санкции наложили. В большинстве случаев — это неестественная ссылочная масса.

Конечно, наличие ручных санкций не гарантирует, что это единственная причина падения позиций и анализ нужно провести полностью, но все же снятие ручных санкций я бы поставил самой приоритетной задачей.

2.4. Другие факторы которые могли повлиять на трафик

Изменения алгоритмов Google

Google регулярно вносит изменения в свои алгоритмы ранжирования и я не говорю только о глобальных доработках, таких, как Колибри или апдейт Панды. Множество небольших, ежедневных изменений, нацелены на улучшение качества выдачи, что, безусловно, влияет на позиции сайта, объем трафика. Следить за «погодой» в мире SEO через сервисы MozCast и Algoroo или за уровнем «шума» на Google Webmaster Forum.

Активизация конкурентов

Активная работа конкурентов по продвижению своих ресурсов может повлиять на трафик подконтрольного вам сайта. Данный фактор не стоит сбрасывать со счетов и учитывать прежде чем принимать важные решения, которые могут и навредить (например, отправить ссылки в Disavow Links). Иногда причина проседания трафика более, чем банальная — поисковик просто видит лучшие альтернативы вашему ресурсу. В таком случае нужно работать над наполнением сайта качественным контентом, наращиванием ссылочной массы, улучшать поведенческие факторы.

Выводы

Существует множество факторов, которые могут служить причиной проседания трафика. И если уж это случилось, то, в первую очередь, нужно сохранять холодную голову и провести тщательный анализ всех возможных причин. Ни в коем случае не делайте поспешных выводов. Даже если вам кажется, что вы нашли в чем дело, все равно проведите полный анализ — возможно, проблема не одна. Только четкое понимание того, что происходит, что стало причиной падения посещаемости, позволит Вам в срок сформировать эффективный план действий и исправить ситуацию.

А что вы делаете в случае когда проседает трафик? Какие методы анализа еще используете?