Хороших книг по SEO не так уж много. Зато много «водяных». Устаревшая или неполная информация, большой объем ненужных или повторяющихся данных, отсутствие структуры…

Книга Леонида Гроховского (с соавторами) «SEO: руководство по внутренним факторам» — приятное исключение. В аннотации ее представляют «написанная оптимизаторами для оптимизаторов». Отличия книги: а) актуальность, б) лаконичность, в) структурированность.

Авторы — ведущие SEO-аналитики России («Оптимизм.Ру», Wikimart.ru, Sape.ru) и преподаватели учебного центра ТопЭксперт.рф. Они на собственной «шкуре» прочувствовали все нюансы продвижения сайтов в рунете. Исходя уже из нашего опыта — хотя книга о продвижении под Yandex, все рекомендации по внутренней оптимизации справедливы и для Google.com.ua.

Книга частично выросла из «SEO-альманаха 2010», составленного на основе экспертных оценок и мнений 26 ведущих seo-экспертов. Краткий обзор альманаха читайте в статье ТОП-10 внутренних факторов ранжирования сайта.

Перейдем к самой книге. Ключевое отличие от других подобных работ — принцип «меньше теории, больше практики». Поэтому глава «Введение в продвижение сайтов» занимает всего лишь 12 страниц. Определение понятий, немного о комплекном подходе, и ничего лишнего.

Мы бы не рекомендовали книгу начинающим оптимизаторам. Разве что новое поколение сеошников захочет сразу ринуться «грудью в бой».

Глава № 1. «Перелинковка»

Вы знаете, чем отличается перелинковка для продвижения высоко-, средне- и низкочастотных запросов? Что такое «куб», «кольцо» и «звезда»? Чем отличается грамотная перелинковка на портале, в интернет-магазине, на корпоративном сайте? Зачем нужно оперировать несколько устаревшим понятием PageRank, когда мы решаем задачу по грамотной перелинковке сайта?

Все это, а также правила, способы и тексты для перелинковки есть в первом разделе книги.

Пример. Вам нужно продвинуть интернет-магазин электроники. Наиболее конверсионный трафик дают покупатели, которые ищут конкретную модель товара.

Если человек ищет «ноутбуки», на самом деле он ищет все, что угодно — общую информацию, картинки, сравнивает цены и т.д. При запросе «ноутбук asus» пользователь, вероятно, изучает модельных ряд, технические характеристики и т.д. Человек, набравший в поисковике «ноутбук asus k50c» — это, скорее всего, «горячий» клиент.

Правило перелинковки для продвижения низкочастотных запросов выглядит так: страницы товаров могут ссылаться только друг на друга, не отдавая вес страницам раздела.

Глава № 2. «Устранение дубликатов»

Чрезвычайно полезный раздел о том, как образуются дубликаты, чем они вредны для сайта, и, главное, что с ними делать. С конкретными методами и примерами.

Отличить неопытного сеошника от специалиста можно по большому количеству дублей страницы в выдаче поисковых систем.

Это не видно с первого взгляда, но здорово «портит карму» сайту. Размывается ссылочный вес нужной нам страницы, она перестает быть уникальной. Поисковик вместо нужной страницы может увидеть дубль. Индексация сайта в целом тоже может оказаться под угрозой.

Самый простой пример. Главная страница сайта отображается по целому списку адресов:

  • site.ru
  • www.site.ru
  • site.ru/
  • www.site.ru/index.php и т.д.

В данном случае мы видим аж 4 дубля главной страницы. В таком случае необходимо настроить 301 редирект с трех из них на одну, выбранную главной версией страницы.

Глава № 3. «Инструкции для поисковых систем»

Про существование файлов robots.txt и sitemap.xml знают, кажется, все. А то, что и для чего в них писать — не все. Как превратить эти инструкции в важный инструмент продвижения — описано в этой главе.

К примеру, функции файла robots.txt:

  • указание главного зеркала сайта
  • исключение лишних страниц из индекса
  • отказ в индексации нежелательным роботам
  • указание адреса карты сайта.

Сколькими функциями robots.txt вы пользуетесь? :)

К примеру, если нам нужно закрыть от индексации страницу сайта, где собраны ссылки на внешние ресурсы, мы можем закрыть ее директивой Disallow. Как это выглядит:

Disallow: /page.html

В этой главе содержится и спорный нюанс: директивы Allow, Clean-Param, а также спецсимволы * и $ указываются как справедливые только для Yandex. По нашему опыту, они работают и для Google.

Глава № 4. «Работа с авторским контентом»

Проблема ворованного контента — бич Интернета № 1. Несмотря на все алгоритмы, методов борьбы с ним или хоть немного достоверного определения первоисточника нет.

Однако в книге заложена интересная идея. Для определения нашей статьи как первоисточника, зачастую достаточно, чтобы поисковик проиндексировал ее в первую очередь и считал надежной и релевантной.

Для этого всего достаточно продвинуть несколькими ссылками статью в ТОП по фрагменту текста. О правильной организации этого процесса читайте в книге :)

В завершение

Я привела только некоторые интересные моменты из книги. Не буду отбирать у авторов хлеб, а вас, дорогие читатели, лишать стимула прочитать эту замечательную книгу!

Скачать книгу. Первые 3000 книг Леонид дает бесплатно. Мы не знаем, сколько там осталось, поэтому качайте, пока есть :).