С момента зарождения поисковых систем очень многое изменилось. Раньше поисковик Google работал очень просто: в его алгоритме были заложены определенные параметры качества, в соответствии с которыми он формировал свою выдачу. Но со временем появились «умные люди», которые захотели манипулировать поисковой выдачей. В связи с этим поисковой системе пришлось разрабатывать новые фильтры, которые дали бы возможность накладывать санкции на некачественные сайты, манипулирующие выдачей и не приносящие пользы посетителям.

На сегодняшний день в поисковой системе Google работает два совершенно разных алгоритма, направленных на борьбу с некачественными сайтами: Panda и Penguin. Остановимся на особенностях каждого из них.

Google Panda

Поисковый алгоритм Panda направлен для борьбу с сайтами, содержащими некачественный контент.

Против кого работает этот алгоритм?

Как было сказано в самом начале, многие люди увидели выгоду в работе с поисковыми системами, ведь интернет — это огромнейшие просторы для заработка денег. Они начали создавать низкокачественные сайты с целью продажи рекламы либо для других способов получения прибыли. Такие сайты создаются за пару дней: весь контент, как правило, скопированный либо вообще отсутствует. Вот против таких сайтов и пришлось разрабатывать алгоритм. Со временем люди умнели и придумали еще один быстрый способ обмана поисковой системы — автоматически сгенерированный текст, который не имеет никакого смысла, либо автоматически переведенные тексты с других языков. Но на данный момент алгоритм и это учитывает.

Также поисковые системы не любят сайты, у которых много дублей страниц, даже если они наполнены уникальным и полезным контентом. Почему? Все просто: каждая страница весит определенное количество байт, и в интернете таких страниц миллиарды. Всю эту информацию поисковая система хранит у себя на серверах, которые необходимо поддерживать и оплачивать. Для индексирования и хранения у себя дублей страниц компания Google тратит миллионы долларов. Поэтому ей изначально гораздо легче «научить» вас создавать качественные сайты.

Основные причины попадания под алгоритм Panda

  • на сайте много пустых страниц;
  • в основном неуникальное текстовое наполнение;
  • некачественный контент: автоматически сгенерирован/переведен;
  • наличие большого количества дублей страниц;
  • большое число битых ссылок;
  • другие проблемы с внутренней оптимизацией;
  • обилие рекламы на сайте.

Google Penguin

Алгоритм Google Penguin направлен на борьбу с некачественной внешней оптимизацией, а точнее со ссылочной массой сайта. С каждым днем алгоритм обновляется и становится умнее.

Против кого работает этот алгоритм?

Данный алгоритм в основном борется с сайтами, владельцы которых искусственно наращивают свою ссылочную массу: либо покупают ссылки, либо размещают их вручную на разных форумах, блогах и т. д. Шанс попасть под фильтр есть даже у тех сайтов, владельцы которых вообще не занимались наращиванием ссылочной массы. Причиной служит наличие ссылок с некачественных ресурсов (каталогов, заспамленных форумов и блогов). Поисковая система Google требует, чтобы даже в таких случаях вы сами прорабатывали свою ссылочную массу и контролировали ее. Для этого существует сервис Disawov Tool.

Основные причины попадания под алгоритм Penguin

  • неестественная ссылочная масса:
  • агрессивный анкор-лист — большой процент прямых вхождений поисковых запросов в анкорах ссылок;
  • не стественная динамика ссылочной массы — резкое увеличение либо снижение количества внешних ссылок;
  • некачественная ссылочная масса:
  • ссылки с заспамленных ресурсов;
  • ссылки с ресурсов, которые находятся под фильтром;
  • обилие сквозных ссылок.

P. S.

В данной статье я ознакомил вас с особенностями работы основных фильтров Google и причинами наложения санкций. В следующей статье я более детально, на примерах, проанализирую признаки наложения санкций и перечислю методы реанимирования сайта.