⬆️ Победители в номинации Search Innovation
Google Partner

Несколько типичных технических ошибок веб-сайтов

Автор:
Оптимизатор
Рецензент: Олег Гаврилюк
Руководитель оптимизаторов
5,00 1 оценка
0 комментариев

Думаю, что многим известно то, что поисковое продвижение сайта состоит (как минимум) из внутренней оптимизации страниц и повышения количества внешних ссылок на сайт с различных индексируемых поисковыми системами интернет-ресурсов.

Если говорить о внутренней оптимизации, то для того, чтобы ее делать «как книга пишет», необходимо помнить о возможных технических проблемах самого сайта (которые часто достаются в виде «бонуса» от разработчиков).

Говорить, о том, что проведение грамотной внутренней оптимизации подразумевает достаточно большой объем работ сегодня не стану – это понятно. Внутренние факторы, которые влияют на релевантность страницы сайта поисковому запросу достаточно обширно и многократно описаны в различных книгах и интернет-ресурсах.

Сегодня, хочу остановиться на возможных ошибках, «подводных камнях» в самом сайте, то есть на том, что может усложнить работу по продвижению сайта.

Ошибки в robots.txt

Файл robots.txt является своеобразной директивой для индексирующих роботов поисковых систем (по крайней мере, так официально заявлено на сайтах поисковиков). Если достаточно сильно упростить, то в основном, директивы в robots.txt указывают какие страницы или каталоги сайта НЕ должны быть проиндексированы роботами. И здесь кроется первый «подводный камень».

Типичные ошибки:

Ошибочное запрещение индексации всего сайта:

Disallow: /

Ошибочное запрещение индексации всех страниц сайта со структурой URL типа:

http://example.ua/index.php?id=*** посредством директивы:

Disallow: /index.php

Ошибочное запрещение индексации всех страниц при использовании регулярных выражений.

Настоятельно рекомендую после внесения каких-либо значимых изменений в robots.txt проверять их корректность с помощью соответствующих сервисов поисковых систем. Например, постоянно использую сервис анализа robots.txt от Яндекс.

анализ robots.txt

Ошибки в sitemap.xml

Часто совершается следующая ошибка — sitemap.xml просто отсутствует на сайте. Если у сайта много страниц, да еще и плохо «перелинкованных» между собой – не исключено, что немалая их часть просто может не попасть в индекс поисковых систем (при условии что на страницу нет внешних ссылок) какая бы полезная информация там не содержалась.

Файл sitemap.xml – это один из известных способов сообщить роботам поисковых систем о том, какие страницы содержит ваш сайт и как к ним добраться.

Ошибки в указании главного зеркала. Иногда замечаю такую ошибку: главное зеркало сайта принято как www.example.ua, а в sitemap.xml указаны страницы как example.ua. Следите за тем, чтобы использовались канонические значения URL.

Ошибки в указании приоритета. Данное значение некоторые вебмастера стремятся указать равным 1 для каждой описанной страницы в sitemap.xml. Это ошибочно. Значение <priority> равное 1 должно встречаться только у одной страницы, как правило, самой важной. Указание тега <priority> равным 1 для всех страниц сайта делает его неинформативным для роботов поисковых систем и тег теряет свою функцию.

Часто вебмастера сталкиваются с проблемой формирования корректного sitemap.xml.

Чтобы облегчить его создание, можно прибегнуть к различным веб-сервисам или локальному программному обеспечению. Из веб-сервисов рекомендую этот.

sitemap.xml generator

Ошибки в системе управления сайтом (ошибки в CMS)

Ошибка:

Использование идентификаторов сессий вместо идентификации посредством файлов cookie

Последствие: появление дублированного контента на сайте в виде одной и той же страницы, которая доступна по различным URL.

Ошибка: выдача сервером сайта кода 200 при не найденной странице.

Все не найденные страницы должны отдавать код 404

Ошибка: из-за особенностей CMS страницы могут быть доступны по нескольким адресам, например, одна страница может показываться с URL:

http://example.kiev.ua/?n1=14&id=10

http://example.kiev.ua/?n1=14&id=11

http://example.kiev.ua/?n1=14&id=12

Последствие: появление дублированного контента на сайте в виде одной и той же страницы, которая доступна по различным URL

Ошибка: дублирование главной страницы сайта страницей типа:

http://example.kiev.ua/index.php

или

http://example.kiev.ua/index.htm

Последствия: все тот же дублированный контент, а именно главная страница дублируется внутренней.

Ошибка: разрешение индексации страниц с результатами поиска на сайте (при условии использования поиска).

Последствия: множество страниц с дублированным контентом и, что бывает при недостаточной фильтрации вводимых пользователем поисковых запросов, возможность размещения прямых активных ссылок на вашем сайте. Это происходит так, пользователь вводит запрос вида <a href=»www.aweb.com.ua»>продвижение сайтов</a> и получает страницу с результатом поиска, где будет выводиться следующее:

Результатов по запросу: продвижение сайтов не найдено.

То есть, мы получили прямую активную ссылку на необходимый нам сайт с другого сайта в результате уязвимости механизма поиска. Это достаточно старый трюк, сейчас не много модулей CMS отвечающих за поиск по сайту допускают подобное, но есть и исключения. Проверьте, не входит ли ваш сайт в эти исключительные случаи.

Ошибка: дублирование мета-тегов на всех страницах сайта. Грубая и распространенная ошибка.

Следствие: поисковые системы не получат значимый заголовок страницы и, следовательно, информация размещенная на странице не получит «поддержку» от тега title (одного из самых важных мета-тегов).

PS: сегодня я перечислил лишь малую часть того, на что необходимо обратить внимание при проведении внутренней оптимизации сайта. Факторов, которые улучшат ранжирование того или иного документа в поисковой системе достаточно много и в одной статье, естественно, их описать, наверно, невозможно.

PPS: проводя внутреннюю оптимизацию сайта помните о его посетителях. Оптимизация страниц не должна делать сайт менее удобным.

Do something to stop this war! Russians are killing our children and civilians!