Tweet

При поддержке: услуга продвижение сайтов в Казани становится все более популярной. Узнать подробнее о ней можно на seven7days.ru.

Привет, друзья! Я уже касался многих аспектов по созданию и распределению семантического

ядра для сайта. Сегодня решил объединить все в один кейс, который будет основан на конкретном примере (нише).

кейс по созданию семантики

Чуть больше полугода назад я хотел создать один нишевый сайт, который был бы полностью посвящен ламинату. Этот материал с каждым годом становится все более популярным. Было создано семантическое ядро, зарегистрирован соответствующий домен (laminatno.ru), установлен wordpress с тематическим шаблоном, а также найден копирайтер. На последнем получилась загвоздка, и вскоре я потерял интерес к будущему проекту. Семантика же осталась. Вот на этом примере и покажу, как создавал и распределял семантическое ядро.

Для таких небольших ниш семантика очень важная составляющая, скелет будущего проекта. От качества ее создания во многом будет зависеть и успех ресурса. Лучше потратить больше времени в начале, чем потом кусать локти :smile:.

1. Сбор поисковых запросов

Первым шагом будет, конечно же, сбор всех возможных запросов, которыми интересуются пользователи поисковых систем. Существует 2 подхода:

  • Бесплатные методы составления семантического ядра:
    - дедовский способ;
    - Wordstat от Яндекса;
    - Подсказки ключевых слов от Google (External Keyword Tool);
    - Поисковые подсказки;
    - Анализ семантики конкурентов.
  • Платные методы составления семантического ядра:
    - аутсорсинг;
    - Key Collector;
    - базы Пастухова;
    - парсинг собственной базы поисковых запросов;
    - Semrush;
    - другие платные сервисы и программы.

Для разных целей можно использовать разные инструменты (так, например, для буржунета лучше подойдет Semrush нежели Key Collector). Можно все это дело отдать и на аутсорс, но есть большая доля вероятности, что вам могут предоставить неполное ядро запросов. Также не видел, чтобы кто-то занимался именно распределением и структурированием семантики.

Здесь не стоит забывать про ассоциативные ключевые слова. Например, если анализировать запросы, которые только связаны с ламинатом, то можно пропустить такие как “ламинированный паркет”, “ламинированные полы”, “ламинатный паркет”. В данном случае их доля не столь велика, но в других тематиках она может достигать 10-40%, что довольно таки много. Их можно узнать, например, по второму столбику wordstat.

2 столбик wordstat

В этом шаге не забываем про удаление дублей и запросов, которые отличаются только положением слов (“ламинат купить” <-> “купить ламинат”). В итоге на руках должен появиться список ключей, которые полностью охватывает заданную тематику или нишу. Теперь самое интересное: нужно отделить зерна от плевел :smile:.

2. Проверяем частотность запросов

Для того чтобы иметь базу для сравнения ключей, нужно определить их спрос или частотность. В основном я беру данные из wordstat Яндекса, но если вы, например, нашли перспективный запрос благодаря External Keyword Tool, то есть смысл определить его популярность именно в этом сервисе.

На этом этапе уже получаются все полученные запросы и их популярность. Я обычно проверяю и сортирую ключевые слова по точному вхождению фразы (оператор ! с “” в вордстате). Итак, получилось следующее.

сбор данных

Это, безусловно, не вся семантика, а только часть. В итоге чуть больше 2000 запросов :smile:. Данные обрабатываются в Excel.

Примечание. Те ключи, которые были получены в результате анализа посещаемости конкурентов, нужно проверять в вордстат немного с бОльшим вниманием. Дело в том, что если вдруг этот сервис Яндекса покажет не устраивающее значение, то его все равно стоит брать в семантическое ядро, так как по нему есть трафик.

3. Удаляем пустышки

В этом пункте нужно избавиться от неперспективных (пустышки, а также фразы, по которым будет очень мало посетителей) запросов. Раз уж семантическое ядро выстроено во 2-м пункте в порядке убывания популярности ключевых слов, то удалить пустышки или фразы, которые не подходят по объему трафика будет не так и сложно.

Единственное, нужно определиться с тем самым объемом трафика. Какие запросы считать неэффективными в перспективе, а какие эффективными? В большей степени это зависит от объема ниши. Например, в семантику для данного довольно узкотематического проекта я включал фразы и с точным вхождением 10, но не в качестве главного ключа, а дополнительного (об этом чуть ниже). Если ниша шире, то и планка выше :smile:. Планку для главных ключевых слов я ставил на уровне 50.

На этом этапе остаются фразы, которые в перспективе могут приносить желаемый объем посетителей. Перехожу к следующему.

4. Анализ и распределение запросов

В этом шаге необходимо каждой фразе присвоить свою функцию или “разукрасить” ;-). Я “разукрашивал” семантику в следующие цвета.

распределение ключей

В итоге получалось примерно следующее:

распределение запросов

Теперь каждый ключ относится к определенному типу страницы: главная, категория, статья и так далее. Дополнительные запросы для статей – это как раз то, что я имел в виду во 2-м пункте. Они не имеют отдельной страницы, а могут включаться только в те, которые написаны для главных фраз. В будущем, они не обязательно подразумевают их продвижение.

В посте про тонкости создания контента под семантику я этого уже касался. “1 страница – 1 запрос” – это не годится. Например, запросы “как стелить ламинат” и “как класть ламинат” не могут быть отдельными страницами, так как их содержание подразумевает один и тот же контент :smile:.

По какому принципу определяется главный запрос? Все просто – это самое популярная фраза из группы ключевых слов. Кстати, вы можете скачать и посмотреть мой исходный файл. Идем дальше.

5. Структуризация

Теперь действия 4-го пункта нужно структурировать в удобно читаемый вид, чтобы было легко ориентироваться во всем семантическом ядре. К каждой главной фразе ищем и “прикрепляем” дополнительные ключи. Все это также распределяем по структурным подразделениям (главная, категории, меню, статьи). В итоге получаем примерно следующее (кликнуть для просмотра увеличенного изображение, откроется в новом окне).

распределение семантического ядра для сайта

Вы также можете скачать и посмотреть мой вариант. Там есть некоторые незначительные недочеты, но для понимания процесса вполне подойдет :smile:.

6. Непосредственное создание контента

Семантика готова. Нужно теперь на ее основе начинать создавать контент для сайта. И этого момента я также уже касался в блоге в статье про тонкости написания статей под семантическое ядро. Кстати, полученные данные в 5 пункте могут выступить основой для ТЗ копирайтеру или автору проекта.

Здесь еще необходимо выделить 1 момент. Вы могли увидеть, что для некоторых статей довольно большой список ключевых слов. Как же их всех употребить на странице хотя бы по 1 разу? Одни блоки, действительно, нужно разбить на 2 или несколько документов (под некоторыми я ставил примечания), другие – нет. Например, имеем 3 запроса

- как продвинуть сайт самостоятельно;
- продвинуть сайт самостоятельно;
- продвинуть сайт.

Если употребить первый вариант, то можно охватить сразу 3 ключа (он будет включать в себя остальные 2). Этим и нужно пользоваться, если на странице у вас собирается много целевых запросов :smile:.

Вот я и рассказал, как создаю семантические ядра для сайтов. А как делаете это вы? Поделитесь своими наработками ;-). Также если у вас появились вопросы, то задавайте их в комментариях. С нетерпением жду ваши отзывы!

Добавить комментарий


Защитный код
Обновить