Привет, друзья! За последние годы мною было проанализировано достаточно много сайтов. В итоге сложился небольшой костяк популярных ошибок и недочетов, которые мешают поисковому продвижению ресурса. О них и пойдет речь в этой статье.

ошибки

Большинство из них, конечно, не критичны, но их устранение в любом случае поможет сайту в оптимизации под поисковые системы. У меня получилось 10 пунктов.

1. Сайт доступен с www и без www

Это, по-моему, самое распространенное явление, когда страницы ресурса доступны как с www, так и без www. Здесь же можно отметить про то, что многие забывают в robots.txt выделять главное зеркало.

Как определить главное зеркало для сайта? Для этого нужно посмотреть, какое из зеркал участвует в поисковой выдаче, то и выбирать. Если проект находится на стадии разработки, то выбирать можно любое на ваш вкус. Итак, в robots.txt для Яндекса прописываем главное зеркало (случай для без www):

User-agent: Yandex
Тут могут стоять ваши различные условия Disallow или Allow
Host: domen.ru

Для настройки редиректа с www на без www нужно прописать в вашем файле .htaccess следующее:

Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^www.domen\.ru$ [NC]
RewriteRule ^(.*)$ http://domen.ru/$1 [R=301,L]

Для редиректа с без www на www:

Options +FollowSymLinks
RewriteEngine On
RewriteCond %{HTTP_HOST} ^domen\.ru$ [NC]
RewriteRule ^(.*)$ http://www.domen.ru/$1 [R=301,L]

Примечание: domen.ru изменить на имя вашего домена.

2. Дубли страниц внутри домена и не настроенный robots.txt

Любая система управления контентом (CMS) не совершенна. Зачастую популярные движки, на которых делают сайты, создают дубли страниц по разным URL-ам. Во-первых, некоторые из них оказываются в поисковой выдаче выше, чем продвигаемые целевые страницы. Во-вторых, дубли страниц даже внутри сайта – это не очень хорошо.

Также если вообще забыть про robots.txt, то в индексе может оказаться множество ненужных и бесполезных страниц. Подобные документы и дубли можно найти, проанализировав проиндексированные страницы поисковыми системами. Для этого можно задать такой запрос:

site:domen.ru

К сожалению, универсального файла robots.txt не существует. Его необходимо создавать с учетом специфики вашей системы управления контентом. Зачастую грамотный robots.txt можно составить только в связке оптимизатор и программист, так как последний будет лучше разбираться в особенностях CMS.

3. Смена структуры URL без 301 редиректа

Не раз попадались проекты, которые меняли CMS или структуру URL и не ставили редирект со старых страниц на аналогичные новые. Тем самым получалось, что все ссылки, которые до этого ставили на внутренние документы ресурса, начали ссылаться на несуществующие страницы. Это был первый отрицательный момент. Второй – это то, что у страницы терялась история индексации и возраст. В общем, ни к чему хорошему это не приводит.

Если вы планируете поменять структуру URL (например, перейти на ЧПУ), то заранее задумайтесь о возможности настройки грамотного 301-редиректа. Если урлы планируется поменять на молодом проекте без ссылочной массы, то тогда в принципе редирект не обязателен.

4. Контекстная перелинковка

Многие вебмастера, оптимизаторы и владельцы сайтов забывают про внутреннюю перелинковку, довольствуясь лишь сквозным меню и системой пагинации. Контекстные ссылки на внутренние страницы проекта полезны как для пользователя, так и для всей внутренней оптимизации. Не стоит забывать про это.

5. Отсутствие желания развивать веб-проект

Некоторые заказчики на SEO полагают, что вся обязанность по увеличению посещаемости с поисковиков лежит на оптимизаторе. К сожалению, это не так. Грамотный seo-специалист должен подготовить ряд рекомендаций и советов по развитию ресурса, но внедрять их, как правило, может только заказчик, так как полного доступа к его ресурсу у исполнителя нет.

Получается следующая картина. Заказчик не выполняет рекомендации, и посещаемость не увеличивается. Виноват кто? Правильно! Seoшник :smile:.

6. Нецелевое семантическое ядро

Для охвата как можно большего семантического ядра, в него иногда добавляются нецелевые ключевые слова. Например, для коммерческого проекта добавляются некоммерческие запросы и закупаются ссылки на них. Просто создать страницу, заточенную под некоммерческий ключевик можно (дополнительный тематический контент никогда не повредит), но продвигать его зачастую нецелесообразно и неэффективно.

В посте “целевой и мусорный трафик” я уже высказывался по этому поводу. В общем, необходимо концентрироваться на ключевых словах или запросах, которые действительно могут принести выгоду.

7. Фокусировка на одном источнике ссылок

Источников ссылок великое множество. Не стоит зацикливаться на каком-то одном. Хорошо, когда на веб-проект ссылаются множество различных по типу и характеру ресурсов. Во-первых, для полезного сайта – это более естественно. Во-вторых, при увеличении или снижении влияния определенного источника, общая ссылочная масса останется практически на прежнем уровне. Получили достаточное количество ссылок с одного источника, можно переходить на другой :smile:.

8. Неэффективные ключевые слова

Стоит ли сразу при создании ресурса стараться продвинуться по высококонкурентному запросу? Стоит ли продвигать ключевое слово, по которому нет потенциального трафика или он не соизмерим с затратами на продвижение. Ответ на вопросы очевиден – “нет”. В связи с этим нужно тщательнее подходить к анализу семантического ядра, удаляя запросы-пустышки и концентрируясь на трафикогенерирующих ключевых словах.

9. Непоследовательность в продвижении

Бывают такие ситуации, когда оптимизатор (или владелец ресурса) начинает метаться из стороны в сторону, от одного метода продвижения к другому. Например, клиент от 1-го человека услышал о каком-то новом направлении раскрутки, начинает развиваться в этой сфере. Через короткое время 2-ой говорит, что это все неэффективно и бессмысленно, а вот его методы работают. Владелец проекта бросает первый вариант и переходит на второй. Это, как правило, плохо сказывается на самом сайте.

Параллель можно привести и в ситуациях, когда происходит метание от одного ссылочного агрегатора к другому. В итоге у ресурса получается нестабильная ссылочная масса. Большой пользы она не принесет. Поэтому нужно быть последовательным в вопросах продвижения.

10. Быстрая раскрутка

Многие заказчики хотят получить результат как можно быстрее, но не всегда скорость бывает полезна. Проводить внутреннюю оптимизацию можно и сразу, а вот создавать ссылочную массу лучше постепенно. Не лучшим вариант для недавно созданного проекта будет закупка тысячи арендуемых ссылок с площадок сомнительного качества.

Какие бы вы еще отметили ошибки при продвижении сайтов, которые вам часто встречаются? Есть ли среди перечисленных те, которые совершали вы? Буду рад вашим отзывам в комментариях ;-).

Постовой: Наша компания Social Media Group предлагает построение коммуникаций в социальных сетях, проведение скрытых рекламных акций, мониторинг отзывов.

Добавить комментарий


Защитный код
Обновить