Кодируем чисто и семантически правильно


Содержание

Семантическое ядро

Составление, доработка, актуализация, изменение семантического ядра — один из нескольких фундаментальных процессов в SEO. От того, насколько хорошо и качественно будут проведены работы на этом этапе, напрямую зависит результат работ по продвижению сайта. Проработка семантического ядра осуществляется в первый месяц работ и продолжается по мере необходимости на протяжении всего времени раскрутки сайта. Здесь стоит отметить, что объем работ по подбору семантики в значительной части отличается от тематики. Для сайта услуг доставки воды он может содержать 10 основных ключей + еще около 50 менее значимых ключевых фраз, список ключей подбирается в первый месяц и мало изменяется в течение последующего времени. Для сайта ремонтно-строительной тематики список значимых ключей будет составлять порядка нескольких сотен ключевых слов, и семантика будет прорабатываться в несколько этапов по категориям. Семантика таких гигантов, как интернет-магазина одежды Lamoda или компьютерной и бытовой техники М.Видео, исчисляется тысячами и десятками тысяч ключей в сотнях категориях, и процесс сбора новых и новых ключевых фраз не закончится никогда, как и появление новых видов товаров.

Итак, давайте разберемся, как правильно подбирать ключевые слова, зачем это нужно, какие есть автоматизированные решения и как это сделать максимально полно, при этом не допустив ошибок.

Содержание

Что такое семантическое ядро сайта

Начнем с определения:

Семантическое ядро — это набор слов и словосочетаний, которые отражают тематику и структуру сайта. Такие слова и словосочетания также называют ключевыми словами и ключевыми фразами.

Обратите внимание, что есть прямая взаимосвязь между ключами и страницами сайта: каждому слову/фразе должна быть сопоставлена одна конкретная страница (URL). Само собой, один URL может быть связан с несколькими ключами.

Какое количество ключевых слов должно быть для одной страницы? Есть общая рекомендация, чтобы одной странице соответствовало не более 10 ключей. Но такой подход не всегда работает. Если у вас есть 20 или 30 ключей, которые по смыслу подходят строго к одной странице и разделение их на две страницы будет нелогичным, то не нужно «переоптимизировать» сайт и создавать две страницы с фактически одинаковым содержанием под похожие ключи.

Разрабатывая семантическое ядро и впоследствии структуру сайта, помните о следующих моментах:

  • страница должна соответствовать ожиданиям посетителя;
  • страница сайта = решение проблемы человека;
  • сайт должен давать ответы на максимальное количество запросов по тематике;
  • полная семантика сайта = структура сайта.

Классификация ключевых слов

Существуют разные типы поисковых фраз. С каждым из этих типов есть свои особенности работы. Рассмотрим основные классификации запросов и посмотрим, как работать с разными видами ключевых слов.

1. По частотности

Выделяют следующие группы запросов по частотности:

  • высокочастотные (ВЧ-запросы, ВЧ)
  • среднечастотные (СЧ-запросы, СЧ)
  • низкочастотные (НЧ-запросы, НЧ)
  • микронизкочастотные (МНЧ-запросы, МНЧ)

В разных источниках вы встретите различные определения. Некоторые авторы устанавливают конкретные значения. Например: высокочастотные — это запросы с базовой частотой в Яндекс.Вордстат от 10 000 показов, среднечастотные — от 1 000 до 10 000, низкочастотные — от 100 до 1 000, микронизкочастотные — менее 100. Иногда цифры отличаются на порядок в бо́льшую или меньшую сторону.

Пример ВЧ-, СЧ-, НЧ-, МНЧ-запросов с базовыми частотами по Яндекс.Вордстат

Я предпочитаю определять частотность в относительном выражении, так как в разных тематиках и в разных регионах продвижения порядки частот могут в значительной части отличаться. У меня были проекты, в которых слова с частотой 400 — 500 я относил к высокочастотным. В других слова с той же частотой попадали в разряд средне- или даже низкочастотных.

ВЧ-запросы обычно наиболее конкурентные. С них лучше не начинать работы по SEO.

Если проект новый, то лучше сначала ориентироваться на НЧ- и МНЧ-запросы. Такие запросы обычно проще всего вывести в ТОП, а для их вывода достаточно проведение относительно нетрудоемких работ. Например, создание страниц товаров или доработка страниц товаров таким образом, чтобы сделать их более полезными и насыщенными информацией за счет сквозных блоков (оплата и доставка, бонусы, акции, отзывы, смотрите также, сопутствующие товары и т.п.), написания коротких текстов-описаний и доработки мета-тегов. На этом этапе очень удобно использовать автоматизацию, и подключение программиста и верстальщика позволит сэкономить значительное время специалиста, занимающегося наполнением сайта.

Далее следует переходить к работе с СЧ-запросами. Попутно часть ВЧ-запросов могут сами вытянуться в ТОП за счет хорошей проработки низко- и среднечастотки. Или, по крайней мере, подняться в ТОП-30 или ТОП-50. И уже после этого непосредственно работать с ВЧ-запросами.

Высокочастотные запросы более привлекательны тем, что потенциально могут принести значительно больше трафика, чем низкочастотные. Однако не стоит недооценивать НЧ-запросы. Их много, и в сумме они дают обычно не менее 30% всего возможного трафика на сайт. Когда я работал в WebCanape, у меня был региональный проект по бурению скважин на воду, который я вывел в ТОП3 — ТОП5 почти по всем НЧ, СЧ, ВЧ-запросам. И трафик по НЧ-запросам в этой тематике составлял 90% всего трафика на сайт.

Для общего понимания, какая доля от всего возможного трафика может быть привлечена на сайт, я предлагаю ориентироваться на такую простую формулу:

  • 10% — высокочастотные запросы
  • 20% — среднечастотные запросы
  • 30% — низкочастотные запросы
  • 40% — микронизкочастотные запросы

Доля ВЧ-, СЧ-, НЧ-, МНЧ-запросов в поиске

2. По бизнес-показателям

Коммерческие запросы — ключевые слова, по которым пользователи ищут товары и услуги с целью покупки / заказа.

Некоммерческие запросы — ключевые слова, по которым пользователи ищут информацию, не преследуя цели осуществления покупки или заказа.

Примеры коммерческих запросов:

  • купить велосипед
  • металлопрокат прайс
  • юридическое сопровождение васильевский остров цены

Примеры некоммерческих запросов:

  • арматура А8 характеристики
  • айфон 7 отзывы
  • аланья википедия

Здесь все предельно просто: для продвижения коммерческого сайта мы оставляем только коммерческие запросы. При сборе семантики для рекламной кампании в Яндекс.Директ / Google Adwords мы также собираем информационные запросы с целью добавить их в «минус-слова».

3. По геозависимости

Геозависимые запросы — ключевые слова, результаты поисковой выдачи по которым отличаются для разных регионов (т.е. зависят от местоположения).

Геонезависимые запросы — ключевые слова, результаты поисковой выдачи по которым НЕ отличаются для разных регионов (не зависят от местоположения).

Уже долгое время поисковые системы учитывают регион при обработке поисковых запросов. Логично, что если мы ищем «цветочный салон», находясь в Хабаровске, нам не интересны цветочные салоны в Москве, Екатеринбурге и Омске. А если, находясь в том же Хабаровске или в любом другом городе, мы ищем «цветочный салон во владивостоке», то нам нужны результаты именно по Владивостоку, независимо от нашего текущего местоположения. И результаты поиска поэтому будут в любом регионе одинаковыми (на практике иногда все же присутствуют незначительные отличия в выдаче).

Примеры геозависимых запросов:

  • фильм матильда кинотеатр
  • купить двухместный диван
  • куда пойти на выходные

Примеры геонезависимых запросов:

  • фильм матильда кинопоиск
  • купить двухместный диван в москве
  • рецепты блинов

Естественно, что конкуренция по геонезависимым запросам без указания города всегда значительно выше. Так как вам необходимо конкурировать со всеми ресурсами на языке запроса. Стоит отметить, что здесь бывают нюансы, когда по некоторым запросам, которые логично отнести к геозависимым, выдача в разных регионах по факту оказывается одинаковой. И наоборот. Поэтому когда возникает проблема с продвижением некоторых запросов — стоит это проверить. Возможно, вы конкурируете со всем миром и перспективы вывода такого запроса в ТОП представляются достаточно смутными.

4. По типу

Информационные запросы — ключевые слова, по которым ищут информацию.

Навигационные запросы — ключевые слова, по которым ищут определенный сайт, место, событие.

Транзакционные запросы — ключевые слова, по которым ищут товары и услуги, собираются сделать покупку или заказ.

Медиа-запросы — ключевые слова, по которым ищут фото, аудио, видео.

Примеры информационных запросов:

  • как приготовить шарлотку
  • остров мадагаскар
  • джон леннон биография

Информационные запросы продвигаются с помощью статей и/или новостного контента. Обычно под них пишутся большие тексты от 2-3 тыс. символов и до 10-20 тыс. символов (лонгриды). На таких страницах важно, чтобы был не только текст, но и изображения, видео, схемы, формулы, инфографики и т.д.

Примеры навигационных запросов:

  • google.ru
  • официальный сайт смолгу
  • конференция риф 2020

По таким ключам сайт быстро выходит в ТОП, если он, конечно, является сайтом, соответствующим запросу. Достаточно, чтобы он и информация на нем была открыта для индексирования (подробнее можно почитать про настройку файла robots.txt). С другой стороны, вывести сайт в ТОП по навигационным запросам конкурента практически невозможно. Исключение — если компания является официальным дилером в данном регионе.

При этом если стоит цель показывать ссылки на свой сайт по навигационным запросам конкурентов, можно использовать инструмент контекстной рекламы. В этом случае при достаточно большой ставке ваша ссылка может оказаться выше конкурента (если он сам не дает рекламу по своим навигационным запросам).

Приятная особенность этих запросов — высокая конверсия.

Примеры транзакционных запросов — аналогичны коммерческим (см. выше). Обычно это самые конкурентные запросы. Здесь нужно внимательно смотреть, как формируется ТОП выдачи по таким запросам. Сайт должен соответствовать определенным требованиям. К таким требованиям может относиться:

  • наличие каталога товаров;
  • наличие страницы с ценами;
  • размещение прайс-листа для скачивания;
  • указание цен на товары;
  • указание оптовых и розничных цен на единицы продукции;
  • функционал корзины и покупки в 1 клик

По некоторым из транзакционных запросов могут выводиться, в основном, сайты-агрегаторы. А для обычных коммерческих сайтов остается только 1-2 места где-нибудь во второй половине топа. В этом случае конкурировать будет практически невозможно, а результат по трафику с такого ключа будет низким.

  • посмотреть фильм ла-ла-лэнд качество 720 бесплатно
  • радио европа плюс онлайн
  • бетховен лунная соната скачать мп3

Для продвижения сайта по таким запросам, прежде всего, нужно наличие соответствующего контента. При этом приоритет отдается крупным сайтам-порталам (Яндекс.Картинки, Shutterstock, Кинопоиск, YouTube).

5. Другие виды ключевых слов

Брендовые запросы — ключевые слова, в состав которых входит название бренда.

Например, «корейская косметика lunifera». Для таких страниц обычно требуется наличие страницы с каталогом продукции данного бренда, а на карточках товара необходимо указывать название бренда в мета-тегах, заголовке H1, в характеристиках и описании.

Витальные запросы — ключевые слова, которые состоят только из названия компании или бренда. Например, «кока-кола». Поисковые системы не могут определить, с какой целью пользователь вводит такие запросы. В топ, прежде всего, попадают ссылки на официальные сайты соответствующих компаний / брендов.

Нечеткие запросы — это запросы без четкой цели. Например, «мадагаскар». По таким запросам поисковая система не может определить, что именно ищет пользователь, и предлагает различные варианты в результатах поиска. В нашем случае это может быть информация об острове, о фильме, страница просмотра фильма, туры на Мадагаскар, страница в блоге путешественника о Мадагаскаре. В Яндексе такая технология называется «Спектр». Сеошники часто говорят о подобных запросах: в выдачу подтягиваются информационные запросы «по спектру». Конкуренция по таким запросам возрастает, а конверсия снижается из-за большого количества нецелевых заходов на сайт.

Для чего нужно семантическое ядро

На этом этапе логично перейти к вопросу составления семантического ядра. Однако давайте сначала посмотрим, зачем нужно семантическое ядро. Понимание, что делать с собранной семантикой позволит понять смысл проводимых работ и избежать целого ряда ошибок.

Итак, в процессе разработки семантического ядра у нас формируется список ключевых слов и фраз. Чем больше синонимов, профессионализмов, вариантов написания терминов, сокращений, аббревиатур мы учтем, тем лучше мы сможем:

  • продумать, сформировать и доработать структуру сайта;
  • сформировать удачный контент для пользователя;
  • использовать ключевые слова для настройки мета-тегов, текстовых корректировок, рерайта и написания текстов с нуля, анкоров внутренних и внешних ссылок.

Формирование семантического ядра представляет собой процесс не просто сбора списка слов. Каждому из этих слов соответствуют определенные параметры, которые нужно учитывать для разных задач продвижения:

  • Частотность запроса (по Яндекс.Вордстат)
  • Позиции в поиске (обычно смотрят не дальше ТОП100, если запроса нет в первой сотне, то всем остальным присваивается значение 101)
  • Продвигаемая страница (URL)
  • Ранжируемая страница (та, которую находит поисковик; по факту может отличаться от продвигаемой, что может указывать на проблемы ранжирования сайта по данному запросу)

Такое представление данных позволяет сразу увидеть следующие проблемы:

  • нет подходящей страницы под запрос, нужно создать новую
  • есть только общие страницы, нужна новая под данный запрос
  • какова динамика продвижения как по конкретным запросам, так и по продвигаемым страницам в целом
  • какова динамика продвижения высоко-, средне- и низкочастотных запросов
  • соответствуют ли продвигаемые и ранжируемые станицы, является ли это причиной плохих позиций по запросу

Пример, как использовать семантическое ядро

Ниже представлен образец части семантического ядра ремонтно-строительного сайта. Это часть рабочего файла одного из моих проектов на продвижении.

Такая таблица в Excel как раз помогает видеть полную картину того, что происходит с продвигаемыми ключевыми словами, и принимать решение, какие доработки необходимо делать в данный момент.

Давайте теперь разберемся, как создать семантическое ядро по шагам.

Правильное семантическое ядро

Шаг 1. Сбор информации

На этом этапе необходимо собрать максимум информации о продвигаемых товарах и/или услугах:

  • категории товаров и услуг;
  • названия товаров и услуг;
  • витальные ключевые слова;
  • коммерческие леммы (купить, цена, прайс, оптом, заказать и т.д.);
  • синонимы и словоформы (создание/создать, балкон/лоджия, автоперевозки, автомобильные перевозки, юридическое сопровождение/обслуживание);
  • транслитерация (mitsubishi/мицубиси)
  • профессионализмы (наружная реклама = наружка);
  • сокращения и аббревиатуры (широкополосная случайная вибрация = ШСВ);
  • технические характеристики (модели, размеры, диаметры и т.д.)
  • для контекстной рекламы слова с ошибками, которые яндекс и/или гугл как ошибки не воспринимает (дом с мансардой, дом м мансардой);
  • география: названия городов, местностей, районов, станций метро, улиц.


В качестве источников информации для вас станут:

  • бриф, который вы отправляли клиенту в начале работ по SEO/контекстной рекламе;
  • структура сайта;
  • информация на сайте;
  • прайс-лист / каталог на сайте;
  • информация на сайтах конкурентов по аналогичным товарам/услугам;
  • дополнительная информация от клиента по вашему запросу;
  • данные из Яндекс.Вордстат и Планировщика Google Adwords;
  • данные из предыдущих рекламных кампаний (если таковые были).

В результате у вас получится таблица из отдельных слов, отсортированных по группам. Пример:

Пример структуры семантики для Яндекс.Директ для строительной компании (витальные запросы скрыты)

Шаг 2. Подбор ключевых слов

  1. Теперь вы можете составить большое количество запросов путем «перемножения» слов из предыдущей таблицы. Для этого удобно использовать генератор ключевых слов на этом сайте.
  2. Вам нужно собрать возможные запросы через Яндекс.Вордстат и Планировщик ключевых слов Google Adwords. Для этих целей также удобно использовать программу KeyCollector или ее бесплатный аналог СловоЕб. Планировщик Google удобен тем, что в нем можно осуществлять поиск не только по исходным ключам, но и по URL. Гугл проанализирует информацию на странице сайта (причем совершенно не важно, будет ли это страница вашего сайта или нет), и предоставит список запросов по теме.
  3. Вам нужно отфильтровать (отминусовать) все неподходящие запросы. С этим удобно работать через KeyCollector — вы просматриваете полученный список ключей, формируете список стоп-слов и далее удаляете все запросы, содержащие такие слова с учетом или без учета морфологии.

Шаг 3. Кластеризация и группировка ключевых слов

К данному моменту у вас получится большой список ключей для продвижения/рекламы. Чтобы разобраться в этом хаосе и иметь возможность работать с этим списком, вам необходимо сгруппировать ключевые слова по продвигаемым / посадочным страницам.

В случае с контекстной рекламой определяющим в группировке являются формы ключевых слов. Так, к примеру, в рекламных кампаниях на поиск ключи со словоформой «автоперевозки» будут включены в одну группу, а «автомобильные перевозки» — в другую. Это нужно, так как основной ключ рекомендуется использовать в заголовке объявления. Таким образом, может быть несколько групп с ссылкой на одну и ту же страницу. В рекламных кампаниях на Сети Яндекса и контекстно-медийную сеть Гугл, наоборот, все ключи, описывающие один продукт или услугу, будут объединены в одну группу и структура, таким образом, будет максимально упрощена.

В случае с SEO процесс группировки оказывается сложнее, так как здесь под каждый ключ нужно подобрать максимально релевантную страницу, а если ее нет, то создать. Мы можем столкнуться со следующими проблемами:

  • наш сайт ранжируется не по всем ключевым словам;
  • по некоторым ключевым словам ранжируются не самые удачные страницы в силу того, что подходящие страницы не оптимизированы;
  • структура продвигаемого сайта не является оптимальной;
  • релевантные страницы под ряд запросов еще не созданы.

Таким образом, парсинг ранжируемых в Гугл и/или Яндекс страниц по нашим ключевым словам не даст ответ, является ли структура нашего сайта оптимальной. Впрочем, список релевантных страниц нам пригодится — но с другой целью, чтобы понимать, есть ли проблемы с ранжированием продвигаемых страниц на нашем сайте.

Как же кластеризировать запросы оптимальным образом?

Самый дешевый, но в то же время затратный по времени метод — это группировать запросы вручную. Такой способ вполне подойдет для небольших проектов.

Для более серьезных проектов, для которых требуется сбор и обработка сотен и тысяч запросов, существуют различные платные сервисы, например, Rush Analytics, которые позволяют автоматически кластеризовать запросы на основании данных в поисковой выдаче. Вы делаете запрос на группировку запросов с различной точностью кластеризации. Точность кластеризации указывает, сколько общих URL должно быть в результатах поиска по двум запросам, чтобы они были объединены в одну группу. Обычно оптимальной является точность 5. Однако есть смысл сгенерировать несколько вариантов в большей и меньшей точностью и выбрать тот список, который окажется наиболее оптимальным для вашего сайта.

Пример кластеризации запросов

Такой способ позволяет получить оптимальную «Запрос-страницу» без дополнительных затрат по времени. Однако готовый список так же необходимо проверить, и по необходимости внести корректировки.

Шаг 4. Сопоставление ключевых слов и структуры сайта, доработка структуры сайта

Итак, на предыдущем шаге мы получили готовые кластеры.

Однако на данном этапе у нас может быть ситуация, когда для нескольких кластеров релевантным является один и тот же URL. В этом случае необходимо внести изменения в структуру сайта — создать новые страницы под такие группы запросов.

Либо под ряд запросов у нас вообще нет подходящих страниц. Например, клиент предоставляет услуги по монтажу отопления, но информация об этом присутствует только на странице «Прайс-лист». В этом случае по результатам кластеризации может быть предложена в качестве релевантной страница с ценами, но на деле очевидно, что нам нужно создать новую страницу.

При группировке запросов нужно стараться разделить сайт на максимально возможное число страниц. Но так, чтобы каждая из этих страниц имела смысл, ее можно было бы наполнить полезной информацией, и она не дублировала содержание других страниц.

Пример: вы можете создать одну страницу под запросы «ремонт двигателя форд фокус», «ремонт двигателя форд фокус 2», «ремонт двигателя форд фокус 3», «ремонт двигателя форд фокус 1.6», «ремонт двигателя форд фокус 1.8» и т.д. А можете сделать под каждый из этих запросов свою страницу. Если вы наполните каждую из них полезным содержанием, то результат будет лучше:

  • посетитель сможет получить более точную информацию по своей модели авто и это увеличит конверсию;
  • вы сможете прописать мета-теги наиболее удачным образом под каждый из этих запросов
  • вы сможете лучше оптимизировать тексты под продвигаемые запросы;
  • вы сможете использовать внутреннюю блочную перелинковку с каждым из этих ключей

Ошибки при подборе семантики

Среди главных ошибок при сборе ключевых фраз нужно отметить следующие:

  • собраны только самые очевидные запросы;
  • не учтены синонимы, словоформы, профессионализмы;
  • не учитываются геозапросы;
  • большое количество разнообразных запросов на одну страницу;
  • одинаковым по смыслам запросам сопоставлены разные страницы.

Если вы учли слишком мало запросов, то при проработке мета-тегов и контента с высокой долей вероятности вы просто не учтете часть ключевых фраз, которые могли бы принести трафик на ваш сайт, и результаты продвижения будут ниже.

Если вы составили «Запрос-страницу» неоптимальным образом, то:

  • у вас возникнут проблемы с корректным ранжированием страниц поисковыми системами, что может приводить к внезапному снижению позиций;
  • в случае необоснованного расширения структуры сайта это может быть признано переспамом, и позиции сайта будут снижены;
  • в случае недоработки структуры сайта вам будет сложнее продвинуть сайт по всем запросам.

Как правильно составить семантическое ядро – сбор и группировка ключевых слов

Приветствую, дорогие сеошники!

Сегодня я решил разобрать очень важную тему. Мы будем говорить о том, как правильно составить семантическое ядро самому, разбить его по группам, а также очистить от лишних невалидных запросов. Если вы хотите более подробно узнать о том, что такое семантическое ядро, то милости прошу в материал, который доступен по приведенной ссылке.

Семантическое ядро простыми словами

Семантическое ядро – слова и словообразования, которые отождествляют тематику вашего сайта. Как правило, оно представляет собой сборник ключевиков, которые вы должны будете использовать при наполнении ресурса. Далее файл с этими ключами передается человеку, который занимается формированием технических заданий. Завершают эту цепочку копирайтеры, которые грамотно расставляют ключевые слова и фразы в статьях.

Для коммерческих сайтов данная цепочка также почти ничем не отличается, за тем лишь исключением, что ключевые слова и фразы используются в статичных элементах ресурса, описаниях товаров и услуг, а также прочих страницах с информацией.

В обоих случаях эти ключевики прописываются в мета-тегах сайта. Это одно из обязательных условий грамотного поискового продвижения веб-ресурса.

Наверное вы уже догадались, что эти слова и фразы зависят от того, что ищут пользователи в поисковых системах. Т. е. если в качестве примера взять запросы “купить красивый диван” и “магазины диванов”, то можно прикинуть, что по одному из них частота будет выше. Соответственно в интернет-магазине с диванами нужно будет указать ключ “Купить красивый диван”, чтобы поисковая система добавила в выдачу ваш ресурс по этому запросу.

Семантическое ядро или семантика – это список, состоящий из большого количества таких запросов, который, как правило, сгруппирован по определенному типу. Такое явление еще называют кластеризацией и почти во всех случаях специалисты прибегают к ее использованию. Это помогает не только составить грамотный план выписки текстов, но и определить, по каким именно типам поисковых запросов будет осуществляться продвижение.

Способы составления семантического ядра

Key Collector

Для составления семантики мы можем воспользоваться программами для создания СЯ. Какие-то из них делают почти всю работу за вас – их еще называют автоматическими. В каких-то сервисах придется больше работать самостоятельно.

Например, есть такая платная утилита Key Collector. Хотя в ней этот процесс почти полностью автоматизирован, необходимо знать, как настроить Key Collector. На выходе вам лишь остается немного прибраться в запросах, убрав оттуда наиболее бесполезные, что включает в себя запросы от роботов, спам и т. д. Стоимость такой программы составляет почти 2 000 рублей.

Яндекс Вордстат

Заниматься сбором семантики можно и с помощью сервиса от Яндекса – Вордстат. Им очень легко пользоваться, достаточно просто ввести ключевое слово, он выведет вам запросы, в которых присутствует данный ключ. Вместе с этим Wordstat покажет вам и похожие запросы, которые также могут быть интересны при продвижении.

В этой статье с помощью Вордстата мы будем собирать первичные ключи, которые понадобятся нам для дальнейшего сбора семантического ядра. Но об этом позже, а пока я приведу вам еще несколько способов, с помощью которых можно собрать семантику.

Яндекс Вордстат + СловоЁБ

Программа с таким красочным названием является абсолютно бесплатным аналогом Key Collector. Естественно и функционала в нем чуть меньше, чем в коммерческом конкуренте, но для сбора семантического ядра под поисковое продвижение этого вполне хватит.

Если вам интересно, чем СловоЁБ отличается от Кей Коллектора, просто взгляните на эту табличку.

Безусловно, отличий здесь вагон и маленькая тележка. Однако для простого сбора ядра возможностей СловоЁБа вполне хватит.

Онлайн-сервисы

Итак, помимо вышеописанных вариантов, семантику можно сделать с помощью онлайн-сервисов. Если вы забьете запрос “Сбор семантики онлайн”, то поисковик выдаст вам большое количество всевозможных онлайн-инструментов. Они могут быть как хорошими, так и плохими. И, соответственно, как платными, так и бесплатными.

С помощью различных онлайн-сервисов можно еще узнать семантическое ядро конкурентов. Будьте уверены, что практически все компании занимаются проверкой данных своих потенциальных соперников.

Заказ у специалиста

Вы можете просто купить готовое решение у специалиста. Он все сделает, и на выходе вы получите целостный файлик со всеми запросами. Далее из него уже можно будет создать список статей с техническими заданиями к ним. Ну и отдать это все на растерзание копирайтерам. Но это уже вопрос делегирования обязанностей, его сегодня затрагивать мы не будем.

Стоит ли составлять семантику?

Если вы открыли эту статью, то вас, определенно, интересует и этот вопрос тоже. Сбор семантики кажется поначалу очень муторным и тяжелым делом. Причем пользователи не всегда понимают, зачем это вообще нужно.

Если мы говорим о блоге, причем созданном с целью заработка, то у авторов таких проектов возникает вполне резонный вопрос: где, собственно, брать вдохновение и про что вообще писать. Если у вас будет готовая таблица со всеми темами и ключевыми словами, то вы точно будете знать, о чем написать свой материал. Такой подход позволит не только не сбавлять темпа, но даже и увеличить, потому как вам не придется ломать голову над темой очередной статьи. Останется только выбрать из предложенного списка и решить для себя, как именно написать тот или иной материал.

Вместе с этим все ваши статьи (при условии грамотного написания текстов и соблюдения частотности ключей) будут неплохо вылетать в топ поисковых запросов, что обеспечит вам посещаемость, и это будет еще больше подогревать ваш интерес и мотивировать на новые свершения. Заманчиво же, правда? И все это благодаря одному единственному элементу – семантике, сбор которой у вас не займет много времени.

Если же речь идет о коммерческих сайтах (лендинги, интернет-магазины и пр.), то сбор семантического ядра просто обязателен. Вот серьезно, без этого вообще никак. Семантика нам понадобится как при наполнении ресурса контентом и мета-тегами, так и для контекстной рекламы, через которую мы будем продвигать бизнес.

Для сбора семантики под контекст одного СловоЁБа будет мало. Придется покупать его расширенную версию, именуемую Кей Коллектором. Программа имеет большое количество разных опций, предназначенных как раз для работы с разными контекстными сетями (Директ, Адвордс и т. д.)

Подводя итог, приходим к выводу, что составлять семантику определенно стоит. Это повышает качество продвижения вашего ресурса и позволяет вам на порядок лучше ориентироваться в потребностях пользователей при составлении контент-плана.

Как правильно составить семантическое ядро по шагам?

При подборе СЯ мы постараемся уложиться в пять шагов. Они будут включать в себя: поиск и подбор первичных ключевых слов, парсинг их в программе СловоЁБ или Кей Коллектор (сам буду использовать первый вариант), определение частотности для каждого запроса, кластеризация и сбор хвостов, т. е. дополнительных слов, которые содержатся в поисковом запросе.

Например: купить диваны черного цвета в Краснодаре онлайн, где жирным выделен наш ключ, а все что дальше – хвост. Если в наших статьях будут присутствовать не только основные запросы, но и хвосты к ним, то вполне вероятно, что эти самые материалы будут собирать посетителей с большего количества различных вариаций этих фраз.

Что же, давайте начнем составлять семантику по шагам.

Сбор первичных ключей

Для сбора первичных слов и фраз мы будем использовать Вордстат. Но перед этим нам нужно самостоятельно придумать, на какие темы мы будем писать статьи или же осуществлять продвижение, если речь идет о коммерческом типе сайтов. Для себя я выпишу такие темы рубрик:

Думаю, что для примера 5 штук будет достаточно. В вашем случае этих тем может быть больше. При выборе первичных ключей для блога можно использовать названия рубрик, по которым в дальнейшем будет осуществляться написание текстов.

Теперь мы берем первое слово и забиваем его в Вордстат. Сервис выдает нам большое количество разных запросов с их частотностью, т. е. количеством обращений конкретно с такими словами в поисковик Яндекс. Вот так это выглядит.

Как видите, вариантов здесь предостаточно. Сервис выдал нам наиболее популярные запросы со словом заработок. В правой же части он показал похожие варианты, которые могут нам понравиться.

Казалось бы, можно на этом остановиться. Просто написать статьи с использованием ключей вроде “заработок в интернете” или “заработок без вложений” и ждать, когда десятки тысяч пользователей ринутся читать наш шедевр.

Но не все так просто, здесь представлены только высокочастотные ключевые фразы, продвигаясь по которым у нас не будет шанса попасть и в первую сотню сайтов. Выбрасывать их в помойку тоже не стоит, самое эффективное продвижение заключается в рациональном использовании всех типов ключевых слов и словосочетаний.

Теперь мы проделываем ровно то же самое по всем представленным первичным словам. А потом еще и по наиболее популярным вариациям, предоставленным самим сервисом.

После первого шага у нас на руках должен быть список из нескольких десятков самых вкусных, по нашему мнению и по мнению Вордстата, запросов. Старайтесь выбирать наиболее человеческие и правильные с точки зрения составления запросы. Я думаю, что проблем с этим возникнуть не должно.

Выглядеть это должно примерно так.

Парсинг базовых запросов при помощи СловоЁБа/Кей Коллектора

Теперь мы и переходим к самому интересному. С помощью СловоЁБа или Кей Коллектора мы должны спарсить все базовые запросы, сделав из них объемную сетку из самых различных вариаций. Иначе говоря, нам нужно получить все запросы, включающие в себя такие фразы или слова.

Создаем новый проект, используя кнопку в главном окне или в верхнем меню.

После того, как проект создан, нужно начать сбор семантики через Wordstat. Грубо говоря, программа сама подключится к Вордстату и соберет оттуда все необходимые данные. Для этого нам понадобится зарегистрировать новый аккаунт Яндекса, чтобы было не жалко, если его забанят, и вписать его данные в настройках. Сделать это нетрудно, тем более, что утилита сама выдает подсказки.

Обратите внимание, что для сбора мы используем левую колонку Вордстата. В ней будут все поисковые запросы, которые содержат этот ключ в прямом вхождении. Но мы также можем использовать и другой вариант – сбор из правой колонки, где есть “похожие” слова и фразы. Таким образом мы можем составить большое количество разносортных поисковых запросов, получив, ко всему прочему, еще и похожие.

Итак, вводим все ключи в поле выскочившего окна и после этого нажимаем на кнопку “Начать сбор”.

Процесс запустится, и программа начнет поиск запросов с содержанием нужных фраз. Само собой, чем больше будет этих самых фраз, тем больше будет запросов на выходе. Для примера я оставил один запрос “Заработок в интернете”, после чего запустил процесс. Вот такие данные мне выдала программа.

Как видите, со своей задачей она справилась, а я получил не только разносортные запросы, но и их частотность. Однако не спешите радоваться. Данные, которые я обвел красным прямоугольником, могут оказаться и вовсе бесполезными или неправильными. Такое явление еще называют грязная или базовая частотность.

Если вы будете ориентироваться на базовую частотность, то вполне возможно, что статьи, составленные с учетом, казалось бы, популярных запросов, не получат ни одного клика за несколько месяцев. По этой причине мы должны получить настоящие данные, для этого мы воспользуемся внутренним функционалом этой программы.

Получение настоящей частотности


Для получения настоящей частотности ключевых слов и фраз мы можем воспользоваться встроенным функционалом СловоЁБа или Кей Коллектора. Т. к. в этой статье мы рассматриваем работу именно с первой утилитой, я объясню все именно на ее примере. В Key Collector этот процесс почти ничем не отличается. Только возможно, что в новых версиях изменилось расположение элементов.

Но я уверен, что вы разберетесь. В СловоЁБе же мы просто находим вот такие кнопки.

Частотность “ “ – вхождение только слов, которые находятся в кавычках. Окончания и порядок могут быть разными.

Частотность ! – точное вхождение ключа с фиксированным окончанием и порядком слов.

Чистка запросов позволит получить достоверные данные по частоте запросов, исходящих от пользователей Яндекса. Разницу между двумя столбцами вы можете видеть воочию. В ключе “заработок в интернете” чистая частота запросов почти в 5 раз меньше. В других словах она может быть еще более ощутимой, поэтому обязательно после каждого сбора семантики пользуйтесь инструментами для выявления более правильных показателей.

Когда процесс составления правильных данных будет завершен, вы можете воспользоваться быстрым фильтром (с регулярными выражениями) для поиска и удаления лишних запросов. Или вы можете сделать это вручную, просто прокрутив ползунок и найдя все варианты, которые не соответствуют какому-то определенному порогу.

В этом случае я рекомендую обращать внимание на запросы, которые могут принести нам трафик. Но не старайтесь лезть сразу в высокочастотные ключи, которые, как правило, использует очень огромное количество более раскрученных сайтов.

Конкурентность всех предложенных запросов мы, конечно, перепроверим далее. Однако ежу понятно, что если частота запроса составляет несколько десятков тысяч, то и конкурентов там будет очень много.

Надо исходить из соображений рационализма, о чем я уже говорил выше. Выбирайте ключи, по которым не слишком много запросов. Непопулярные отстойники, с частотой полтора запроса в месяц нам тоже не нужны.

Кластеризация запросов

Теперь нам предстоит разделить все наше семантическое ядро, а вернее ключи, которые в нем содержатся, на группы. Кластеризовать, в рамках этого материала, я буду как раз по частотности. Это наиболее популярный вариант, который используется почти повсеместно.

Все слова и фразы мы можем разделить на высокочастотные, среднечастотные, низкочастотные и микронизкочастотные. Объяснять, по какому принципу происходит группировка, думаю, не нужно. Однако, обозначить примерные диапазоны необходимо.

Сразу скажу, что сколько людей, столько и мнений. Иногда они расходятся, считать мой вариант за абсолютную истину не стоит. Вполне возможно, что у других специалистов значения будут отличаться в большую или меньшую сторону.

  • ВЧ – свыше 10 000 запросов в месяц;
  • СЧ – от 1 000 до 10 000;
  • НЧ – до 1 000;
  • МНЧ – меньше 100.

Цифры крайне субъективны и примерны, взяты из общепринятых данных, которые я когда-то получил опытным путем. Но стоит сказать, что этот вариант я видел часто.

Принцип кластеризации по частоте будет выглядеть как разбивка всех запросов по группам, исходя из количества поисковых обращений пользователей. Их мы уже получили на предыдущем шаге, теперь нам остается распределить запросы по этим группам.

Здесь же можно ввести еще несколько групп, уже исходя не из частотности запросов, а из конкурентности, то есть количества сайтов, которые уже осуществляют продвижение по ним.

Есть высококонкурентные, среднеконкурентные и низкоконкурентные запросы. Мы можем разгруппировать все данные и по такому типу, что даже будет предпочтительнее. Для более эффективного продвижения нашего сайта мы должны подобрать запросы с наибольшей частотой и наименьшей конкуренцией. Это, конечно, в идеале.

Для кластеризации запросов можно пользоваться как автоматическими инструментами (онлайн-сервисы), так и своими собственными ручками.

Если делать это вручную, то можно в прямом смысле сойти с ума. И дабы не ломать свою психику, я бы советовал вам воспользоваться автоматическими сервисами для разбивки всех ключевых слов по группам.

Таких сервисов в интернете не так много. Более-менее хороших еще меньше, однако слава об одном из достаточно приемлемых сервисов для кластеризации семантики ходит по Рунету вот уже который год. Я говорю о сервисе Мутаген, с помощью которого мы и будем воспроизводить все вышеописанные действия.

Цукерберг рекомендует:  Запускаем сервер debian

Данный онлайн-инструмент платный, но здесь есть возможность и бесплатного использования с некоторыми ограничениями. Не более 10 проверок в сутки.

Проблем с использованием Мутагена быть не должно. Интерфейс там интуитивно понятный, на русском языке. Там же есть небольшое ЧаВо, в котором объясняются основы работы с этим сервисом.

Здесь же скажу, что для более быстрой кластеризации нужно пользоваться массовой проверкой. Не будем же мы тысячи запросов проверять по одному. Для этого придется зарегистрироваться на сервисе и только после этого раздел массовой проверки станет доступен.

Потом останется просто скопировать все ключи из СловоЁБа, ну и по завершению всех процессов изучить все показатели конкурентности, а далее и сгруппировать их.

Поиск хвостов

Напоследок мы должны взять все самые вкусные ключи, после чего попробовать поискать хвосты. Просто вбиваем нужный запрос в Яндекс, после чего он выдаст их нам сам.

Как видите, здесь их не так много. Казалось бы, зачем вообще проверять и парсить хвосты с запросов. Неужто умный Яндекс сам не закинет наш ресурс в выдачу по запросам с хвостами? Может быть и закинет, однако, если где-то на вашем ресурсе будут проскакивать материалы вот с такими хвостами, то намного более вероятно именно ваш сайт будет в топе выдачи по этим запросам.

Продвижение с использованием запросов с хвостом особенно актуально для молодых сайтов. Траста у таких ресурсов еще нет, а вот если где-то в статье будет ключ в прямом вхождении, то вероятнее всего Яндекс кинет в топ даже ресурс без траста. Яше важно, чтобы каждый пользователь получал именно то, зачем он пришел в поисковик. Поэтому стоит пользоваться этим и добавить в свое семантическое ядро запросы с хвостами.

Собирать хвосты, к большому сожалению, придется вручную. Но вам не стоит пытаться парсить хвосты для всех тысяч ключей. Делайте это избирательно, с учетом понимания того, что может быть действительно интересно вашим посетителям.

Заключение

Как видите, собрать семантическое ядро можно всего за 5 шагов. Конечно, в этой инструкции представлен базовый вариант, который поможет вам познать азы и сделать самую простую семантику. Для более серьезных проектов понадобится соответствующий подход. Например, при кластеризации ключевиков вам придется делить их не только на ВЧ и НЧ, или ВК и НК, но и на коммерческие и некоммерческие. Или даже на группы с учетом региональности.

Все это будет непременно занимать время, но если вы самостоятельно будете работать над семантикой, собирать ее и видеть, как вообще обстоят дела на рынке поисковых систем, то по прошествии времени к вам постепенно будет приходить и понимание. Вы будете находить все новые инструменты для различных процессов, сможете делать сбор семантики и ее группировку чисто на одном дыхании. Конечно же, при условии, что вам это будет интересно.

Если вы сами не хотите разбираться со всем этим, то всегда можно заказать сбор семантического ядра у фрилансера или какой-нибудь студии. В интернете полно различных контор, которые готовы спарсить все данные и просто предоставить вам Excel-файлик. Цена может быть разной. Но я уверен, что если захотеть, то можно найти хорошего специалиста.Кстати говоря, если вам что-то непонятно из этой статьи и вы никак не можете разобраться со сбором семантического ядра, то должен уведомить, что на курсе Василия Блинова “Как создать блог” этот вопрос также будет обсуждаться. Возможно вам стоит пройти обучение и получить все необходимые знания.

Как сэкономить время в два раза на сборе семантического ядра

Типичный сбор семантического ядра начинается с парсинга Wordstat или сбора ключевиков со всевозможных сервисов в KeyCollector. Затем наступает черед ручной кластеризации в Excel или KeyCollector. Весь процесс отнимает дюжину времени, а именно порядка 16–24 человекочасов seo-специалиста. Можно ли ускорить этот процесс без потери качества? Да, и мы расскажем, как это сделать.

Этап 1. Подготовительный

Шаг 1. Забыть про сбор максимального полного семантического ядра через парсеры Wordstat или KeyCollector и тем более руками. Вам не нужно тратить время seo-специалиста напрасно. Подробнее — ниже.

Шаг 2. Создать черновую структуру сайта, отталкиваясь от которой собрать семантическое ядро и, собственно, структуру сайта. Для этого даем клиенту заполнить бриф. В нем он должен описать, чем занимается компания, какие проблемы решает будущих пользователей, кто конкуренты, основные группы товаров или ключевые услуги. Посмотрите шаблон полного брифа . Если же вы владелец сайта, то ответьте на такие же вопросы для структуризации мыслей.

Шаг 3. После изучения брифа устраиваем мозговой штурм и делаем список общих ключевых фраз, которые характеризуют бизнес. Главное не прерывать мыслительный поток и записывать все фразы, даже нелепые на первый взгляд. Например, у нас интернет-магазин по продаже ортопедических матрасов, стульев и подушек. Тогда короткий список определяющих фраз будет такой:

  • ортопедические матрасы
  • ортопедические подушки
  • ортопедические кресла
  • ортопедические стулья
  • стулья для осанки
  • анатомические подушки
  • матрасы для спины
  • подушки для стульев.

Каждая фраза из этого списка — высокочастотник в тематике и определяет только тип товара. Дальше нужно расширять семантическое ядро средне- и низкочастотниками, а затем кластеризовать (разбивать всю семантику на подкатегории). На этих этапах мы и сэкономим время с помощью автоматизации.

Этап 2. Автоматизация уровень новичок

Сбор семантики

Выгрузить семантику с последующей кластеризацией можно с помощью Serpstat, поэтому шаги по работе в сервисах покажем на его примере. Также для сбора семантического ядра можно использовать SEMrush.

Шаг 1. Поочередно вводим ключевые фразы в сервис , выбираем регион поиска, под которое будет продвигаться сайт, и экспортируем все фразы из инструмента “Подбор фраз”. Также если у вас заготовлен список стоп-слов, вы можете добавить его в фильтр “Ключевые слова — не содержит” через запятую и выгрузить уже “чистую” семантику.

Процесс сбора семантики по одной ключевой фразе занимает до 3 минут.

Шаг 2. Продолжаем расширять семантику, используя инструмент “Похожие фразы”, который находит синонимы фразы и сленговые выражения. Внедряя ключевики из этого отчета, вы максимально охватите запросы аудитории. А параметр “Сила связи” подскажет вам, используют ли эту фразу в своем семантическом ядре ваши конкуренты из топ-20. Чем выше число, тем больше сайтов используют исследуемую фразу и предложенный синоним.

Выраженный результат показывается на товарах, которые люди могут искать по-всякому. Например, подушки для спины.

Шаг 3. Последний шаг в расширении семантики — это сбор поисковых подсказок поисковой системы. Преимущество в том, что сервисы собирают информацию в режиме реального времени и вытаскивают сразу все поисковые подсказки, которые может предложить Яндекс/Google. Поисковики же предлагают только до 12 подсказок на фразу.

Чтобы выгрузить все подсказки, переходим в инструмент “Поисковые подсказки” и выгружаем список.

Обратите внимание на облако популярных фраз, именно такие слова чаще всего ищут люди со словосочетанием “ортопедические матрасы”. Если среди фраз есть определенные размеры, бренды или тип изделия, то стоит включить их в ассортимент интернет-магазина.

Также под информационный тип ключевиков, как “лучшие матрасы для проблем с позвоночником”, вы можете подготовить статью к вам в блог, что станет дополнительным источником трафика и продаж.

Шаг 4. Сводим все отчеты в единую таблицу и чистим дубли с помощью плагина Remove Duplicate .

Потраченное время — до 5 минут. Зависит от количества ключевых запросов.

Пользуюсь сервисами вы уже выигрываете время перед теми, кто собирает, чистит и кластеризует семантику вручную. Чтобы понять разницу, попробуйте провести все описанные шаги, вытаскивая ключевые фразы и поисковые подсказки в Wordstat, а затем повторите инструкцию.

Кластеризация

Также экономит до 8 часов автоматическая кластеризация. Это разбивка всех ключевых фраз на смысловые группы, под которые создается структура сайта, посадочные страницы, фильтры, категории товаров и так далее.

Для этого загрузите ваш файл со всеми ключевыми фразами в инструмент кластеризации и в течение 10–30 минут, в зависимости от количества ключевиков, вы получите отчет.

Если группировка не удовлетворяет качеством, не выходя из проекта, щелкните по значку “настройки” и поставьте силу связи сильнее/слабее. Изменение настроек в пределах одного проекта бесплатное, перегруппировка семантики длится не больше 1 минуты.

Этап 3. Автоматизация уровень профи

Если вы уже собираете семантику с помощью сервисов через интерфейс, пришло время познакомить вас с API. Это набор функций, позволяющих пользователям получать доступ к данным или компонентам сервиса, в нашем случае — Serpstat. Преимущество работы по API:

  1. Можете комбинировать разные отчеты в один, не заходя в сервис. При этом данные будут выгружаться со скоростью 10 запросов в секунду. Реально ли повторить такое руками? Конечно, нет ��
  2. Лимиты API (юниты) и лимиты в интерфейсе отличаются, по API вы получаете гораздо больше данных и дешевле. Даже если у вас закончились лимиты на сбор ключевых слов в интерфейсе, вы можете выгружать фразы, используя API.
  3. Вы можете не покупать подписку на сервис, а просто купить нужное вам количество API-юнитов и получать данные, не заходя в интерфейс.
  4. Можете написать любой скрипт для API и получать любые данные в один клик, которые не смогут добыть ваши конкуренты. Например, этот бесплатный скрипт ищет ветки форумов, которые ранжируются в топ-100 поисковой системы по тем же ключевым словам, что и ваш сайт. В результате вы получите список всех найденных URL-ов, их ключевые фразы, а также их позиции.

А теперь повторим все действия по сбору семантики со второго этапа с помощью API.

Шаг 1. Скопируйте эту таблицу со скриптом в свой Google Диск.

Шаг 2. Скопируйте свой токен в личном профиле Serpstat и вставьте в соответствующее поле в таблице. Также выберите нужную базу поисковика и заполните параметры отбора ключевых фраз, добавьте список ключевых фраз, по которым вы хотите выгрузить отчеты.

Запустите скрипт, парся по очереди отчеты по подбору фраз, поисковых подсказок и похожих/сленговых фраз (см. скрин):

Программа попросит залогиниться через gmail-аккаунт и запросит доступ на разрешение работы. Подтвердите запуск скрипта, минуя предупреждение о небезопасности.

Шаг 3. Через 30–60 секунд скрипт завершит работу и соберет ключевые слова в рамках заданных параметров.

Также в этом скрипте можно настроить фильтр по минус-словам и любые другие.

Итого мы сэкономили еще несколько часов работы seo-специалиста на сведении всех отчетов в один и сборе данных по каждому ключевому слову в интерфейсе.

Скрипты для работы по API могут писать ваши seo-специалисты, а можно найти официальные в открытом доступе .

Выводы

Максимально ускоряют сбор семантического ядра без потери качества такие действия:

  1. Кластеризация с помощью специальных сервисов.
  2. Парсинг ключевых слов, подсказок и сленговых выражений по API seo-платформ.

Помните, что ваши лидирующие конкуренты в лице других бизнесов или агентств по поисковому продвижению уже используют различные сервисы автоматизации и обгоняют сборщиков семантики руками на десять шагов. Поэтому осваивайте новые решения и будьте в топе! Начать можно с seo аудита:

Получить предложение!

Подпишись и следи за выходом новых статей в нашем монстрограмме.

Что такое семантическое ядро и как его составлять

Время чтения: 35 минут Нет времени читать? Нет времени?

Поисковое продвижение сайта обычно начинается с построения семантического ядра. Из статьи вы узнаете, как это правильно сделать. А главное, как взглянуть на задачу глазами бизнесмена и маркетолога, а не специалиста по SEO.

Что такое семантическое ядро сайта

Сначала объясним простыми словами с помощью видео:

Рассказывает проект-менеджер «Текстерры» Иван Смирнов

Ну а теперь более подробно.

Составляя смысловое ядро, вы отвечаете на глобальный вопрос: какую информацию можно найти на сайте. Поскольку одним из главных принципов бизнеса и маркетинга считается клиентоориентированность, на создание семантического ядра можно смотреть с другой стороны. Вам нужно определить, с помощью каких поисковых запросов пользователи ищут информацию, которая будет опубликована на сайте.

Построение смыслового ядра решает еще одну задачу. Речь идет о распределении поисковых фраз по страницам ресурса. Работая с ядром, вы определяете, какая страница точнее всего отвечает на конкретный поисковый запрос или группу запросов.

Есть два подхода к решению этой задачи. Первый предполагает создание структуры сайта по результатам анализа поисковых запросов пользователя. В этом случае семантическое ядро определяет каркас и архитектуру ресурса. Второй подход предполагает предварительное планирование структуры ресурса до анализа поисковых запросов. В этом случае семантическое ядро распределяется по готовому каркасу.

Оба подхода так или иначе работают. Но логичнее сначала планировать структуру сайта, а потом определять запросы, по которым пользователи смогут найти ту или иную страницу. В этом случае вы остаетесь проактивным: сами выбираете, что хотите рассказывать потенциальным клиентам. Если вы подгоняете структуру ресурса под ключи, то остаетесь объектом и реагируете на среду, а не активно ее меняете.

Здесь нужно четко подчеркнуть разницу между «сеошным» и маркетинговым подходом к построению ядра. Вот логика типичного оптимизатора старой школы: чтобы создать сайт, нужно найти ключевые слова и выбрать фразы, по которым просто попасть в топ выдачи. После этого необходимо создать структуру сайта и распределить ключи по страницам. Контент страницы нужно оптимизировать под ключевые фразы.

Вот логика бизнесмена или маркетолога: нужно решить, какую информацию транслировать аудитории с помощью сайта. Для этого необходимо хорошо знать свою отрасль и бизнес. Сначала нужно запланировать приблизительную структуру сайта и предварительный список страниц. После этого при построении семантического ядра надо узнать, как аудитория ищет информацию. С помощью контента необходимо отвечать на вопросы, которые задает аудитория.

К каким негативным последствиям приводит использование «сеошного» подхода на практике? Из-за развития по принципу «плясать от печки» падает информационная ценность ресурса. Бизнес должен формировать тренды и выбирать, что говорить клиентам. Бизнес не должен ограничиваться реакциями на статистику поисковых фраз и создавать страницы только ради оптимизации сайта под какой-то ключ.


Из-за особенностей подходов к продвижению представители старой школы SEO необоснованно отсеивают часть перспективных поисковых запросов. Это объясняется высокой конкурентностью или низким коэффициентом KEI, низкой частотностью, «мусорностью» ключей и т.д.

Мусорных или слишком конкурентных ключей не бывает. У нас в «Текстерре» кардинально другой подход к продвижению сайтов – упор идет на максимально широкое семантическое ядро

Планируемый результат построения семантического ядра — это список ключевых запросов, распределенных по страницам сайта. Он содержит URL страниц, поисковые запросы и указание их частотности.

Как построить структуру сайта

Структура сайта представляет собой иерархическую схему страниц. С ее помощью вы решаете несколько задач: планируете логику подачи информации, обеспечиваете юзабилити и соответствие сайта требованиям поисковых систем.

Для создания структуры подойдет любой удобный инструмент: редактор таблиц, ваш любимый текстовый редактор или можно даже нарисовать от руки на листе бумаги. Главное, планируя иерархию будущего сайта, отвечать себе на два вопроса:

  • Какую информацию вы хотите сообщить пользователям?
  • Где лучше разместить тот или иной информационный блок?

Представьте, что у вас сайт небольшой кондитерской. Он включает информационные страницы, раздел публикаций и витрину или каталог продуктов. Визуально структура может выглядеть так:

Для дальнейшей работы с семантическим ядром оформите структуру сайта в виде таблицы. В ней укажите названия страниц и обозначьте их подчиненность. Также включите в таблицу колонки для указаний URL страниц, ключевых слов и их частотности. Таблица может выглядеть так:

Колонки URL, «Ключи» и «Частотность» вы заполните позже. Сейчас переходите к поиску ключевых слов.

Что нужно знать о ключевых словах

Чтобы подобрать семантическое ядро, вы должны понимать, что такое ключевые слова и какие ключи использует аудитория. С этими знаниями вы сможете корректно использовать один из инструментов для подбора ключевых слов.

Какие ключи использует аудитория

Ключи — это слова или фразы, которые используют потенциальные клиенты, чтобы найти необходимую информацию. Например, чтобы приготовить торт, пользователь вводит в поисковую строку запрос «наполеон рецепт с фото».

Ключевые слова классифицируются по нескольким признакам. По популярности выделяют высоко-, средне- и низкочастотные запросы. По разным данным, поисковые фразы объединяются в группы так:

  • К низкочастотным относятся запросы с частотой показов до 100 в месяц. Некоторые специалисты включают в группу запросы с частотой до 1 000 показов.
  • К среднечастотным относятся запросы с частотой до 1 000 показов. Иногда эксперты увеличивают порог до 5 000 показов.
  • К высокочастотным запросам относятся фразы с частотой от 1 000 показов. Некоторые авторы считают высокочастотными ключи, имеющие от 5 000 или даже 10 000 запросов.

Что нужно знать о частотности при составлении семантического ядра? По статистике, примерно две трети всех поисковых запросов низкочастотные. Поэтому нужно иметь максимально широкое семантическое ядро, которое должно постоянно расширяться за счет низкочастотных фраз.

Значит ли это, что высоко и среднечастотные запросы можно игнорировать? Нет, вы не обойдетесь без них. Но в качестве основного ресурса для привлечения целевых посетителей рассматривайте низкочастотные ключи.

По потребностям пользователей ключи объединяются в такие группы:

  • Информационные. Аудитория использует их, чтобы найти какие-то сведения. Примеры информационных запросов: «как правильно хранить выпечку», «как отделить желток от белка».
  • Транзакционные. Пользователи вводят их, когда планируют совершить действие. К этой группе относятся ключи «купить хлебопечку», «скачать книгу рецептов», «заказать пиццу с доставкой».
  • Прочие запросы. Речь идет о ключевых фразах, по которым сложно определить намерение пользователя. Например, когда человек использует ключ «торт», он может планировать купить кулинарное изделие или приготовить его самостоятельно. Кроме того, пользователь может интересоваться информацией о тортах: определением, признаками, классификацией и т.п.

Как использовать этот способ классификации при построении семантического ядра? Во-первых, вы должны учитывать нужды аудитории при распределении ключей по страницам и создании контент-плана. Здесь все очевидно: публикации информационных разделов должны отвечать на информационные запросы. Здесь же должна быть большая часть ключевых фраз без выраженного намерения. На транзакционные вопросы должны отвечать страницы из разделов «Магазин» или «Витрина».

Во-вторых, следует помнить, что многие транзакционные вопросы относятся к коммерческим. Чтобы привлекать естественный трафик по запросу «купить смартфон Samsung», вам придется конкурировать с «Евросетью», «Эльдорадо» и другими бизнес-тяжеловесами. Избежать неравной конкуренции можно с помощью рекомендации, приведенной выше. Максимально расширяйте ядро и снижайте частотность запросов. Например, частотность запроса «купить смартфон Samsung Galaxy s6» на порядок ниже частотности ключа «Купить смартфон Samsung Galaxy».

Что нужно знать об анатомии поисковых запросов

Поисковые фразы состоят из нескольких частей: тела, спецификатора и хвоста. Это можно рассмотреть на примере.

Что можно сказать о запросе «торт»? По нему нельзя определить намерение пользователя. Он высокочастотный, что определяет высокую конкуренцию в выдаче. Использование этого запроса для продвижения принесет большую долю нецелевого трафика, что негативно сказывается на поведенческих метриках. Высокочастотность и неспецифичность запроса «торт» определяется его анатомией: он состоит только из тела.

Обратите внимание на запрос «купить торт». Он состоит из тела «торт» и спецификатора «купить». Последний определяет намерение пользователя. Именно спецификаторы указывают на принадлежность ключа к транзакционным или информационным. Посмотрите на примеры:

  • Купить торт.
  • Рецепты тортов.
  • Как подавать торт.

Иногда спецификаторы могут выражать прямо противоположные намерения пользователя. Простой пример: пользователи планируют купить или продать машину.

Теперь посмотрите на запрос «купить торт с доставкой». Он состоит из тела, спецификатора и хвоста. Последний не меняет, а детализирует намерение или информационную потребность пользователя. Посмотрите на примеры:

  • Купить торт онлайн.
  • Купить торт в Туле с доставкой.
  • Купить домашний торт в Орле.

В каждом случае видно намерение человека приобрести торт. А хвост ключевой фразы детализирует эту потребность.

Знание анатомии поисковых фраз позволяет вывести условную формулу подбора ключей для семантического ядра. Вы должны определить базовые термины, связанные с вашим бизнесом, продуктом и нуждами пользователей. Например, клиенты кондитерской фирмы интересуются тортами, выпечкой, печеньем, пирожными, капкейками и другими кондитерскими изделиями.

После этого вам нужно найти хвосты и спецификаторы, которые аудитория проекта использует с базовыми терминами. Благодаря «хвостатым» фразам вы одновременно увеличиваете охват и уменьшаете конкурентность ядра.

Кстати, если нет времени или сложно разбираться в теме, специалисты «Текстерры» помогут вам составить семантическое ядро.

Системы аналитики

Если вы строите семантическое ядро для существующего сайта, воспользуйтесь системами аналитики «Яндекс.Метрика» или Google Analytics. С их помощью вы можете определить, какими поисковыми фразами пользуется существующая аудитория проекта.

Данные о популярных поисковых запросах можно получить в кабинетах для вебмастеров «Яндекса» и Google. В Search Console информация находится в разделе «Поисковый трафик – Анализ поисковых запросов». В «Вебмастере» воспользуйтесь разделом «Поисковые запросы – Популярные запросы».

Сервисы анализа сайтов-конкурентов

Сайты конкурентов — отличный источник идей ключевых слов. Если вас интересует конкретная страница, определить поисковые фразы, под которые она оптимизирована, можно вручную. Чтобы найти основные ключи, обычно достаточно прочитать материал или проверить содержимое мета-тега keywords в коде страницы. Также вы можете воспользоваться сервисами семантического анализа текстов, например, Istio или Advego.

Если вам необходимо проанализировать сайт целиком, воспользуйтесь сервисами комплексного конкурентного анализа:

  • Searchmetrics – от 69 $ в месяц.
  • SpyWords – российский сервис, от 1 978 руб. в месяц.
  • SEMrush – стоимость от 99.95 $ в месяц (подробный обзор ниже).

Вы можете использовать и другие инструменты для сбора ключевых фраз. Вот несколько примеров: Google Trends, Wordtracker, WordStream, Ubersuggest, «Топвизор». Но не спешите освоить все сервисы и программы сразу. Если вы составляете семантическое ядро для собственного небольшого сайта, воспользуйтесь бесплатным инструментом, например, сервисом подбора ключевых слов «Яндекс» или планировщиком Google.

Как подобрать ключевые слова для семантического ядра

Процесс подбора ключевых фраз объединяется в несколько этапов. На первом вы определите базовые ключи, с помощью которых аудитория ищет ваш продукт или бизнес. Второй этап посвящен расширению семантического ядра. На третьем этапе вы удалите неподходящие поисковые фразы.

Определяем базовые ключи

Внесите в таблицу или запишите на бумаге общие поисковые фразы, связанные с вашим бизнесом и продуктами. Соберите коллег и проведите мозговой штурм. Фиксируйте все предложенные идеи без обсуждений.

Ваш список будет выглядеть примерно так:

Большинство ключей, которые вы записали, характеризуются высокой частотностью и низкой специфичностью. Чтобы получить средне- и низкочастотные поисковые фразы с высокой специфичностью, вам нужно максимально расширить ядро.

Расширяем семантическое ядро

Эту задачу вы будете решать с помощью инструментов для подбора ключевых слов, например, Wordstat. Если ваш бизнес имеет региональную привязку, в настройках выберите соответствующий регион.

С помощью сервиса подбора ключевых фраз вам необходимо проанализировать все записанные на предыдущем этапе ключи.

Скопируйте фразы из левой колонки Wordstat и вставьте в таблицу. Обратите внимание на правую колонку. В ней «Яндекс» предлагает фразы, которые люди использовали вместе с основным запросом. В зависимости от содержания, вы можете сразу выбрать подходящие ключи из правой колонки или скопировать список целиком. Во втором случае неподходящие запросы будут отсеяны на следующем этапе.

А результатом этого этапа работы будет список поисковых фраз для каждого базового ключа, который вы получили с помощью мозгового штурма. В списках могут быть сотни или тысячи запросов.

Удаляем неподходящие поисковые фразы

Это самый трудозатратный этап работы с ядром. Вам необходимо вручную удалить из ядра неподходящие по смыслу поисковые фразы.

Не используйте в качестве критерия оценки ключей частотность, конкурентность или другие чисто «сеошные» метрики. Знаете, почему оптимизаторы старой школы считают мусорными те или иные поисковые фразы? Например, возьмите ключ «диетический торт». Сервис Wordstat прогнозирует для него 3 показа в месяц в регионе Череповец.

Чтобы продвигать страницы по конкретным ключам, олдскульные сеошники покупали или арендовали ссылки. Кстати, некоторые специалисты используют этот подход до сих пор. Понятно, что поисковые фразы с низкой частотностью в большинстве случаев не окупают средства, потраченные на покупку ссылок.

Теперь посмотрите на фразу «диетические торты» глазами обычного маркетолога. Некоторые представители ЦА кондитерской фирмы действительно интересуются такими продуктами. Поэтому ключ можно и нужно включить в семантическое ядро. Если кондитерская готовит соответствующие продукты, фраза пригодится в разделе описаний товаров. Если фирма по каким-то причинам не работает с диетическими тортами, ключ можно использовать в качестве контент-идеи для информационного раздела.

Какие фразы можно смело исключать из списка? Вот примеры:

  • Ключи с упоминанием конкурирующих брендов.
  • Ключи с упоминанием товаров или услуг, которые вы не продаете и не планируете продавать.
  • Ключи с включением слов «недорого», «дешево», «со скидкой». Если вы не демпингуете, отсекайте любителей дешевого, чтобы не портить поведенческие метрики.
  • Дублирующиеся ключи. Например, из трех ключей «торты на заказ на день рождения», «торты на заказ на день» и «торты на заказ на рождение» достаточно оставить первый.
  • Ключи с упоминанием неподходящих регионов или адресов. Например, если вы обслуживаете жителей Северного района Череповца, вам не подходит ключ «торты на заказ индустриальный район».
  • Фразы, введенные с ошибками или опечатками. Поисковые системы понимают, что пользователь ищет круассаны, даже если вводит в поисковую строку ключ «круасаны».

После удаления неподходящих фраз вы получили список запросов для базового ключа «торты на заказ». Такие же списки необходимо составить для других базовых ключей, полученных на этапе мозгового штурма. После этого переходите к группировке ключевых фраз.

Как группировать ключевые слова и строить карту релевантности

Поисковые фразы, с помощью которых пользователи находят или будут находить ваш сайт, объединяются в семантические кластеры. Это близкие по смыслу группы запросов. Например, в семантический кластер «Торт» входят все ключевые фразы, связанные с этим словом: рецепты тортов, заказать торт, фото тортов, свадебный торт и т.д.

Большую часть кластеров первого уровня вы определили во время мозгового штурма, когда записывали базовые ключевые фразы. Для этого достаточно разбираться в собственном бизнесе, а также подглядывать в схему сайта, которую вы составили до начала работы над семантическим ядром.

Очень важно корректно выполнить кластеризацию на втором уровне. Здесь поисковые фразы меняются с помощью спецификаторов, обозначающих намерения пользователей. Простой пример — кластеры «рецепты тортов» и «торты на заказ». Поисковые фразы первого используют люди, нуждающиеся в информации. Ключи второго кластера используют клиенты, желающие купить торт.

Поисковые фразы для кластера «торты на заказ» вы определили с помощью Wordstat и ручного отсева. Их необходимо распределить между страницами раздела «Торты».

Например, в кластере есть поисковые запросы «футбольные торты на заказ» и «торты на заказ футбольная тематика».

Если в ассортименте фирмы есть соответствующий продукт, в разделе «Торты из мастики» необходимо создать соответствующую страницу. Внесите ее в структуру сайта: укажите название, URL и поисковые фразы с частотностью.

С помощью сервиса «Подбор ключевых слов» или аналогичных инструментов посмотрите, какие еще поисковые фразы используют потенциальные клиенты, чтобы найти торты с футбольным оформлением. Внесите подходящие в список ключевых слов страницы.

В списке поисковых фраз кластера удобным вам способом отметьте распределенные ключи. Распределите оставшиеся поисковые фразы.

Если необходимо, меняйте структуру сайта: создавайте новые разделы и категории. Например, страница «торты на заказ щенячий патруль» должна войти в раздел «Детские торты». Одновременно она может входить в раздел «Торты из мастики».

Обратите внимание на два момента. Во-первых, в кластере может не оказаться подходящих фраз для страницы, которую вы планируете создать. Это может произойти по разным причинам. Например, к ним относятся несовершенство инструментов сбора поисковых фраз или их некорректное использование, а также низкая популярность продукта.

Отсутствие в кластере подходящего ключа — не повод отказаться от создания страницы и продажи продукта. Например, представьте, что кондитерская фирма продает детские торты с изображением героев мультфильма «Свинка Пеппа». Если в список не попали соответствующие ключи, уточните потребности аудитории с помощью Wordstat или другого сервиса. В большинстве случаев подходящие запросы найдутся.

Во-вторых, даже после удаления лишних ключей в кластере могут остаться поисковые фразы, которые не подходят для созданных и запланированных страниц. Их можно игнорировать или использовать в другом кластере. Например, если кондитерская по каким-то причинам принципиально не продает торт «Наполеон», соответствующие ключевые фразы можно использовать в разделе «Рецепты».

После распределения всех ключей вы получите список существующих и запланированных страниц сайта с указанием URL, поисковых фраз и частотности. Что с ними делать дальше?

Сервисы для составления семантического ядра

Есть много инструментов для подбора ключевых слов. Вы можете построить ядро с помощью платных или бесплатных сервисов и программ. Выбирайте конкретное средство в зависимости от стоящих перед вами задач.

Key Collector

Вы не обойдетесь без этого инструмента, если занимаетесь интернет-маркетингом профессионально, развиваете несколько сайтов или составляете ядро для большого сайта. Вот список основных задач, которые решает программа:

  • Подбор ключевых слов. Key Collector собирает запросы через Wordstat «Яндекса».
  • Парсинг поисковых подсказок.
  • Отсечение неподходящих поисковых фраз с помощью стоп-слов.
  • Фильтрация запросов по частоте.
  • Поиск неявных дублей запросов.
  • Определение сезонных запросов.
  • Сбор статистики из сторонних сервисов и платформ: Liveinternet.ru, «Метрика», Google Analytics, Google AdWords, «Директ», «Вконтакте» и другие.
  • Поиск релевантных запросу страниц.

Key Collector — многофункциональный инструмент, который автоматизирует операции, необходимые для построения семантического ядра. Программа платная. Вы можете выполнить все действия, которые «умеет» Key Collector, с помощью альтернативных бесплатных инструментов. Но для этого вам придется использовать несколько сервисов и программ.

SlovoEB

Это бесплатный инструмент от создателей Key Collector. Программа собирает ключевые слова через Wordstat, определяет частотность запросов, парсит поисковые подсказки.

Чтобы воспользоваться программой, в настройках укажите логин и пароль от аккаунта «Директ». Не используйте основной аккаунт, так как «Яндекс» может заблокировать его за автоматические запросы.

Создайте новый проект. На вкладке «Данные» выберите опцию «Добавить фразы». Укажите поисковые фразы, которые предположительно использует аудитория проекта для поиска информации о продуктах.

В разделе меню «Сбор ключевых слов и статистики» выберите нужную опцию и запустите программу. Например, определите частотность ключевых фраз.

Инструмент позволяет подобрать ключевые слова, а также автоматически выполнить некоторые задачи, связанные с анализом и группировкой запросов.

Сервис подбора ключевых слов «Яндекс»


Wordstat — бесплатный сервис, с помощью которого можно подобрать и проанализировать ключевые слова. Инструмент обладает такой функциональностью:

  • Показывает статистику показов по ключевому слову, а также поисковым фразам, которые включают указанное ключевое слово. Вы можете проанализировать общие данные или данные о запросах мобильной аудитории.
  • Показывает данные о запросах в региональном разрезе.
  • Отображает данные о популярности запроса в динамике. Соответствующая информация доступна в разделе «История запросов».
  • Показывает статистику только по указанной фразе и ее формам. Чтобы получить данные, возьмите ключ в кавычки.
  • Отображает статистику для ключа без учета форм. Чтобы получить данные, добавьте перед поисковой фразой восклицательный знак.
  • Отображает данные для ключа без учета минус-слов. Чтобы получить статистику для запроса «убить пересмешника» без учета слова «фильм», перед последним нужно поставить минус.
  • Показывает статистику запросов с использованием выбранного предлога. Чтобы получить данные, поставьте перед предлогом знак «+».
  • Показывает статистику по группе запросов. Чтобы получить информацию, укажите группы запросов в круглых скобках, а варианты ключей разделите знаком «|». Например, чтобы быстро получить статистику по запросам «заказать торт», «купить торт», «заказать капкейк», «купить капкейк», «заказать пирог» и «купить пирог», используйте указанную на иллюстрации конструкцию.
  • Показывает статистику запросов с привязкой к указанным регионам.

С помощью сервиса Wordstat вы можете подобрать ключевые фразы, необходимые для построения семантического ядра. Используйте его, если готовы анализировать и группировать запросы вручную.

Планировщик ключевых слов Google

Используйте планировщик ключевых слов, чтобы построить семантическое ядро с учетом нужд пользователей поисковой системы Google. Например, логично использовать статистику Google в регионах, где этот поисковик доминирует.

Планировщик ключевых слов позволяет искать новые запросы по запросам, сайтам или тематикам. С помощью сервиса вы можете собрать статистику поисковых запросов. Также планировщик можно использовать для создания новых комбинаций запросов и прогнозирования трафика.

Чтобы получить статистику по имеющимся запросам, выберите соответствующую опцию на главной странице сервиса. Введите интересующие вас фразы или загрузите файл в формате CSV. Выберите регион запросов. При необходимости укажите минус-слова. Нажмите кнопку «Узнать количество запросов».

Статистика запросов «Поиск Mail.ru»

Сервис показывает статистику запросов в третьем по популярности поисковике в рунете. Информация представлена в разрезе пола и возраста пользователей. Доступна статистика за прошедший календарный месяц.

Serpstat

Многофункциональный SEO-сервис, использование платное (от 69,00 $ в месяц за тариф Lite).

С помощью Serpstat можно проанализировать ключевые фразы и подобрать средне- и низкочастотные запросы. Система работает с Google и «Яндекс». Пользователь указывает географию проекта.

По результатам анализа Serpstat выдает такие данные:

  • Частотность ключа.
  • Уровень конкуренции по шкале от 1 до 100.
  • Приблизительную стоимость перехода по контекстному объявлению.
  • Динамику популярности запроса в виде графика.
  • Список конкурентов в поисковой выдаче и в системах контекстной рекламы.

В разделе SEO-анализ можно подобрать для базового ключа дополнительные фразы. Serpstat выдает похожие фразы и поисковые подсказки. Здесь же можно увидеть список страниц из топа выдачи по выбранному запросу. Пользователь может оценить динамику видимости сайтов-конкурентов в выдаче по заданному ключу.

В разделе «Контент-маркетинг» можно получить «длиннохвостые» ключевые фразы и контент-идеи. Сервис по заданному базовому ключу собирает группы поисковых запросов. Например, в группе «как создание сайтов» содержатся популярные запросы типа «как начать создание сайта» или «как заработать создание сайтов». То есть Serpstat фактически генерирует готовые кластеры ключевых фраз.

«Мутаген»

С помощью сервиса можно искать ключевые фразы с высокой частотностью и низкой конкуренцией. «Мутаген» платный, но существующим пользователям доступны 10 бесплатных проверок ключей в сутки. Новым пользователям для доступа к бесплатным проверкам нужно хотя бы раз пополнить баланс.

Чтобы определить уровень конкуренции по ключу, сервис анализирует топ-30 сайтов в выдаче «Яндекса». Алгоритм и критерии проверки не разглашаются. Создатели «Мутагена» рекомендуют включать в семантическое ядро поисковые фразы с частотностью от 150 запросов в месяц и уровнем конкуренции не выше 5 баллов.

SemRush

Платный комплексный инструмент поисковой аналитики. Есть встроенный инструмент Keyword Magic Tool. Он подбирает идеи ключевых фраз по базовому ключу, оценивает частотность фраз, стоимость перехода в Google AdWords, уровень конкуренции, выдачу Google по запросам на текущий момент. Собранные ключи можно экспортировать в таблицу или добавить в Keyword Analyzer для дальнейшего анализа.

В разделе «Анализ ключевых слов» можно получить данные по выбранным ключам:

  • Частотность ключа.
  • Распределение по регионам.
  • Динамика.
  • Стоимость в Google AdWords. Состояние SERP.

Данные можно экспортировать в формате PDF.

С помощью SemRush для базового ключа можно получить смежные запросы и просмотреть историю объявлений в AdWords. В разделе Keyword Difficulty можно оценить уровень конкуренции по ключевому слову. Система оценивает по шкале от 1 до 100, насколько тяжело занять место в топе поисковой выдачи по выбранному ключу.

С помощью SemRush можно группировать ключи.

Keyword Tool

Платный инструмент для работы с ключевыми запросами. Сервис ищет идеи поисковых фраз для Google, YouTube, Bing, Amazon, App Store и eBay. Бесплатная версия отображает список ключей. Платная подписка дает доступ к частотности, динамике, стоимости в AdWords и уровню конкуренции по выбранным ключам.

Платная и бесплатная версии поддерживают экспорт данных в форматах .xls или .csv. Платная подписка открывает доступ к инструменту анализа конкурентов.

Rush Analytics

Инструмент Rush Analytics подбирает и кластеризирует ключевые фразы. Использование платное (от 999 руб. в месяц за стартовый тариф, а для ознакомления есть тестовый период 14 дней с ограниченными возможностями.

Rush Analytics автоматически анализирует ключевые слова из сервиса «Подбор слов» «Яндекса». В настройках проекта можно указать параметры оценки ключей: добавить операторы, зафиксировать порядок слов. Собранные ключи и статистику можно экспортировать.

Rush Analytics собирает подсказки из «Яндекса», Google и YouTube. С их помощью можно расширить семантическое ядро. Собранные подсказки можно загрузить в таблицу.

С помощью Rush Analytics можно кластеризировать ключи. Данные можно выгрузить в таблицу.

В Rush Analytics есть функции генерации ТЗ на создание текстов с учетом собранных ключей.

SEMparser

Платный сервис кластеризации ключей. После регистрации доступен бесплатный тестовый пакет. Чтобы сгруппировать ключи, нужно загрузить таблицу и запустить проект.

Группы ключевых слов можно отредактировать вручную и экспортировать в таблицу. Также с помощью SEMparser можно получить параметры эталонных текстов из топа поисковой выдачи по выбранному запросу. Сервис автоматически генерирует ТЗ на создание текстов на основе результатов кластеризации и анализа поисковой выдачи.

JustMagic

Сервис JustMagic – набор SEO-инструментов по работе с семантикой для профессионалов. Сервис платный, но есть бесплатный тариф с небольшим количеством лимитов на каждый месяц.

JustMagiс позволяет собрать семантическое ядро по собственным базам, на основе данных «Метрики», из «Вордстата» и поисковых подсказок «Яндекса».

Помимо сбора семантики, есть возможность ее кластеризации по топу «Яндекса» или Google. Дополнительно есть функции определения частотности по «Вордстату», тематики, коммерческости и геозависимости запроса.

Тем, кто составляет ТЗ для копирайтеров или готовит SEO-тексты, также могут пригодиться «Акварель»/«Акварель-генератор» (для работы с LSI) и «Текстовый анализатор» (для подсчета точных и неточных вхождений).

«Пиксель Тулс»

Pixel Tools – это набор 50 SEO-сервисов для профессионалов, 12 из которых представляют инструменты для работы с семантическим ядром. Некоторые доступны бесплатно, сразу после регистрации. Чтобы получить полный доступ, нужно будет покупать подписку.

С помощью «Пиксель Тулс» вы можете собрать запросы из Wordstat и «Яндекс.Вебмастера», а также подсказки «Яндекса», Google, YouTube и даже Avito. Есть отдельный инструмент для парсинга блока «Вместе с … ищут».

Подобранную разными способами семантику можно кластеризовать, плюс проверить на геозависимость и коммерческость, оценить интент (намерение/желание пользователя) по каждому запросу, удалить дубли.

Click.ru

Это профессиональные инструменты для контекстной и таргетированной рекламы, которые также пригодится для работы с семантикой и решения SEO-задач. Инструментарий доступен после регистрации в системе. Стоимость зависит от количества задач, по каждому инструменту есть бесплатные 50–100 запросов.

Через пользовательский аккаунт вы можете подобрать ключи по контенту на собственном сайте, результатам анализа конкурентов и данным веб-аналитики. После – изучить популярность запросов в «Вордстате», расширить семантику за счет поисковых подсказок и фраз-ассоциаций. Затем – кластеризовать по «Яндексу» или Google.

Чтобы почистить СЯ от мусора, лишних символов и дублей, есть «Нормализатор». Для тех, кто работает с продвижением интернет-магазинов, будет полезен «Комбинатор». Решить задачу по оптимизации метатегов и заголовок поможет соответствующий парсер, достаточно загрузить в него список URL или карту сайта.

Что делать с семантическим ядром

Таблица с семантическим ядром должна стать дорожной картой и основным источником идей при составлении контент-плана. Посмотрите: у вас есть список с предварительным названием страниц и поисковыми фразами. Они определяют потребности аудитории. При составлении контент-плана вам остается уточнить название страницы или публикации. Включите в него основной поисковый запрос. Это не всегда самый популярный ключ. Кроме популярности, запрос в названии должен лучше всего отражать потребность аудитории страницы.

Остальные поисковые фразы используйте в качестве ответа на вопрос «о чем писать». Помните, вам не нужно во что бы то ни стало вписать все поисковые фразы в информационный материал или в описание продукта. Контент должен раскрывать тему и отвечать на вопросы пользователей. Еще раз обратите внимание: нужно фокусироваться на информационных потребностях, а не на поисковых фразах и их вписывании в текст.

Что нельзя делать с семантическим ядром, чтобы не превратиться в олдскульного сеошника

Про вписывание поисковых фраз вы уже знаете. Вот продолжение списка вредных действий. Обратите внимание, что это относится как к семантическому ядру, так и к работе над контент-стратегией. Не практикуйте следующее:

  • Отказ от использования слишком конкурентных ключей. Чтобы привлекать трафик и продавать, вам не нужно обязательно попасть в топ по конкурентному запросу «туры в Египет». Оставьте фразу в семантическом ядре и используйте ее в качестве контент-идеи.
  • Отказ от использования низкочастотных фраз. Как сказано выше, представители старой школы считают запросы мусорными, если они не окупают средств, вложенных в покупку или аренду ссылок. А вам нужно собрать как можно больше низкочастотных и ультранизкочастотных ключей. Они тоже станут вашими контент-идеями.
  • Использование для оценки ключевых слов формул и коэффициентов. Например, коэффициент эффективности ключевых слов (KEI) представляет собой отношение популярности к конкурентности. Вы помните, что семантика — раздел языкознания? Оставьте формулы математикам. Иначе вы потеряете много ценных контент-идей, которые могут отсеяться вместе с ключами с якобы низкой эффективностью или KEI.
  • Создание страниц ради запросов. Здесь долго объяснять не надо: в мире SEO часто встречаются отдельные страницы для запросов «купить торт» и «заказать торт». В реальной жизни под «купить» и «заказать» подразумевается одно намерение. Поэтому вам нужна одна страница.
  • Попытка максимально автоматизировать построение семантического ядра. Да, чтобы собрать поисковые фразы, нужно использовать сервисы или программы. Да, для больших проектов Key Collector если не незаменимый инструмент, то оптимальное рабочее средство. Но даже оптимизаторы старой школы знают, что без тщательного ручного анализа ценность списка ключей невысока. Машина может собрать фразы и их характеристики, но только человек может проанализировать отрасль, реально оценить уровень конкуренции и спланировать информационные кампании. Последнее, кстати, связано с построением структуры сайта и распределением ключей.
  • Избыточная фокусировка на сборе ключевых фраз. Небольшим новым проектам чаще всего не нужно шпионить за конкурентами, изучать поисковые подсказки, собирать ключи из разных поисковых систем. Чтобы получить контент-идеи, на первом этапе достаточно использовать один источник, например, статистику «Яндекса» или Google. Альтернативные источники ключей понадобятся, когда у вас возникнет дефицит идей и потребность расширять ядро.

Чтобы не превратиться в олдскульного оптимизатора, достаточно помнить, зачем вы строите ядро. Это поможет вам видеть дальше чисто технической процедуры сбора поисковых фраз.

Семантическое ядро: маркетинг или SEO

На самом деле здесь нет противоречия. Чтобы собрать поисковые фразы, нужно мыслить, как бизнесмен или маркетолог и обладать некоторыми умениями оптимизатора.

  • В первую очередь уделите внимание структуре сайта и решите, что что вы хотите донести до клиентов.
  • После этого разберитесь, как люди ищут информацию, которую вы планируете публиковать. Используйте сервисы и программы для подбора ключевых фраз, источники статистики и инструменты поискового шпионажа.
  • Проанализируйте собранные ключи и удалите фразы, которые не подходят по смыслу. Сгруппируйте ключи и распределите по страницам сайта.

Теперь можно приступать к созданию контент-плана.

Что такое семантика простыми словами?

Семантика – слово, пришедшее в наш язык из греческого, где его смыслом было «значимый». В филологии оно впервые было применено во Франции М. Бреалем, занимавшимся не только развитием языка, но и историей. О том, что такое семантика, могут рассказать многие языковеды. Под термином принято понимать такую науку, которая посвящена смыслу слова, множеству букв и предложений.

А если попонятнее?

Наиболее общее значение термина (именно его обычно подразумевают) можно уточнить как «лексическая семантика». Она занимается осмысленной нагрузкой отдельно взятых слов. А вот языковеды, исследующие алфавиты, сохранившиеся с древности, знают, какова смысловая нагрузка отдельных букв. Некоторые специалисты занимаются текстами, фразами, законченными предложениями. Такая область – еще одно из полей применения семантического научного подхода.


Разбирая, что такое семантика, нужно обязательно упомянуть о родстве с другими дисциплинами. В частности, тесны связи с:

  • логикой;
  • языковой философией;
  • коммуникационными теориями;
  • антропологией (языка, символов);
  • семиологией.

Рассматривая науку подробнее, необходимо сразу сформулировать объект, который она исследует: семантическое поле. Это такой комплекс терминов, для которых свойственен некий общий фактор.

Объект исследования

Если спросить филолога, что такое семантика, специалист расскажет: термином принято обозначать науку, занимающуюся не только осмысленной нагрузкой слов, но и философскими языковыми аспектами. Кроме того, распространяется дисциплина и на используемые программистами языки, на формальную логику, семиотику. Посредством разработанных в семантике инструментов можно провести результативный анализ текста. Благодаря этой науке можно вычленить соотношения фраз, слов, символов, взаимосвязь со значениями.

Впрочем, описанное значение – лишь общее представление, что такое семантика. На самом деле в настоящее время понятие намного шире. Оно применяется для некоторых специализированных философских течений и даже в рамках одного из подходов, призывающих людей изменить свое отношение в мире, уйти прочь от «культуры потребления». Проблема эта в последние годы стала действительно актуальной, и одно из ее решений получило наименование «общая семантика». Стоит признать, у нее есть немало поклонников.

Понимание сути

Так сложилось, что семантика языка – наука, для которой очень актуальна проблема понимания. Проще говоря, обыватель запросто может сказать, чем занимается математика или физика, но не всякий быстро сориентируется в сфере исследования семантики. Что удивительно, не столько лингвисты, сколько психологи поставили перед собой задачу формулирования понимания сути семантики. В то же время интерпретация символов, знаков – вопрос, свойственный строго лингвистике и никакой иной науке. Значение отыскивают с учетом обстановки, в которой объекты применялись: специфики сообщества, контекста, обстоятельств.

Лингвистическая семантика особенное внимание уделяется мимике, телодвижениям, звукам, как способам передачи информации. Все это формирует значимый контекст. Для письменного языка роль таких структурных факторов играют абзацы и знаки препинания. Общий термин, обозначающий эту область информации – семантический контекст. Аналитическая деятельность в области семантики тесно связана с рядом сопутствующих дисциплин, занимающихся лексикой, этимологией символов и слов, правилами написания и произношения. Наука связана и с прагматикой.

Особенности науки

Семантика языка занимается строго определенными вопросами, ей характерна конкретная область знаний. Свойства этой дисциплины зачастую позволяют характеризовать ее как синтетическую. Рассматриваемая сфера тесно сплетается с языковой философией, имеет связь с филологией, семиотикой. В то же время наблюдается резкий контраст с синтаксическими правилами, комбинаторикой, не обращающей внимание на смысловую нагрузку используемых символов и знаков.

Особенность семантики в наличии значимых связей с репрезентативными смысловыми теориями, в том числе рассматривающими взаимосвязи, соответствия и истинность смысла. Это уже не просто языковая наука, но философская дисциплина, которая фокусируется на реальности и отражении ее через возможности языка.

Лингвистика

Эта наука – одна из дополнительных областей, включенных в общее дерево семантики как дисциплины исследования. Объект внимания этой сферы семантики – лексика. Лингвистика занимается смысловой нагрузкой, характерной словарным уровням, предложениям и фразам. В равной степени лингвистика анализирует и более крупные объекты – тексты, расширенные повествования.

Изучая лингвистику и семантику, необходимо четко представлять тесные взаимосвязи субъектов. Для лингвистики становятся важными перекрестные ссылки и примененные обозначения. Особенность этого направления – исследования взаимоотношений, свойственных единицам лингвистики. Как и семантика предложения, лингвистика особенное внимание уделяет словосочетаниям, правда, в несколько ином ключе. Здесь исследователи фокусируются на омонимах, анонимах, синонимах, паронимах, метрономах. Задача, стоящая перед ними, – осмыслить довольно крупные элементы текста, скомпоновав их из небольших, и расширить смысловую нагрузку, насколько это представляется возможным.

Монтагская грамматика

Автором этой структуры семантики стал Ричард Монтегю. Впервые свои теории он озвучил в 1960-м. Идея заключалась в такой систематизации определений, которая применяла бы терминологию лямбда-исчисления. Продемонстрированные им материалы наглядно доказали, что присущий тексту смысл можно разложить на части, элементы, используя правила сочетания. Внимание обратили и на факт относительной немногочисленности таких правил.

В то время впервые прозвучал термин «смысловой атом». Его понимание, равно как и работа с примитивами, легли в базу семантики вопросов в семидесятые годы. Так начала развиваться мыслительная гипотеза. И сегодня многие признают, что грамматика Монтегю была исключительно стройным, логичным изобретением. К сожалению, ее отличием от семантики речи была выраженная изменчивость, определяемая контекстом. Язык, как считал Монтегю, был не просто системой ярлыков, закрепленных за предметами и явлениями, но инструментальным набором. Он обращал внимание, что значимость каждого из таких инструментов не в привязке к конкретным объектам, а в специфике функционирования.

А на примерах?

Семантика в прочтении Монтегю хорошо иллюстрируется следующим образом. Филологам знакомо понятие «семантическая неопределенность». Это ситуация, когда в отсутствии ряда частей контекста невозможно определить точный смысл объекта (слова, фразы). Более того, нет таких слов, идентификация которых была бы стопроцентно возможной и верной в отсутствии окружения.

Формальная семантика

Эта идея была сформулирована, как усовершенствование постулатов Монтегю. Она принадлежит к теоретическим высоко-формализованным подходам и работает с естественными языками. Таким методом может быть проанализирована и русская семантика. Особенность – в присвоении различным единицам значений: истинности, функциональной зависимости, индивидуальности. Для каждой единицы затем выявляется истинность, соотношение в аспектах логики относительно иных предложений. Все это позволяет получить достаточный объем сведений для анализа текста в целом.

Истинно-условная семантика

Автором этой теории выступил Дональд Дэвидсон. Теория принадлежит к числу формализованных. Основная идея – в определении связей между предложениями. Подход предполагает работу с естественными языками. Семантика слова, предложения, текста обязывает выискивать и описывать такие условия, при которых некоторый объект исследования становится истинным.

Например, только в ситуации, когда снег белого цвета, истинным будет выражение «снег белый». То есть фактически задача филолога – определить, в каких условиях значение фразы становится истиной. В семантике слова заранее задан набор значений, выбранных на базе конкретного объекта, и задается набор правил, позволяющих их объединять. Практическое применение такого метода – формирование абстрактных моделей, в то же время суть подхода – в определении соответствия между выражениями и реальными вещами и событиями, а не абстрактными результатами моделирования.

Искусственная семантика

Под этим термином принято понимать такие фразы, слова, на базе которых формируется полезное содержимое. Задача лингвиста – составить семантическое ядро, которое будет привлекать внимание читателя. Наиболее актуален этот термин в настоящее время в применении к современным технологиям, в частности, интернету. Чтобы повысить посещаемость виртуальной странички, важно таким образом сформировать ее текстовое наполнение, чтобы присутствовали ключи, способные заинтересовать пользователя. Искусственная семантика в настоящее время широко применяется в рекламных целях.

Информатика предлагает трактовать семантику как раздел, занимающийся осмысленностью конструкций, свойственных языку. Это, в некоторой степени, противоположно синтаксису, чья сфера ответственности – форма выражения конструкций. Семантика – набор правил, позволяющих трактовать синтаксис. В то же время значения заданы непрямо, лишь ограничены возможности понимания объявленных слов, символов. Принято говорить о семантике как отношениях, свойствах, дающих формальное представление об объекте. Применяется логический подход, на основании которого строятся модели и теории, базирующиеся на интерпретации полученной информации.

Семантика как метод продвижения проекта

Применяя базовые правила семантики, специалист может разработать такое ядро, которое затем будет базой для формирования СЕО-программы. Семантическое ядро – список запросов, которые аудитория может ввести в виртуальной системе поиска, чтобы ознакомиться с услугами, товарами, в которых нуждается. Чтобы сформировать такое ядро корректно, нужно представлять, в чем клиент нуждается, какие перед ним стоят цели.

Определение потребностей целевой аудитории чаще всего предполагает интервьюирование либо бриф-опрос. Правильно подойдя к этой задаче, можно сформулировать с высокой степенью точности, в чем нуждается пользователь.

Семантическое ядро: особенности

Чтобы правильно сформировать этот базовый для продвижения проекта объект, необходимо сперва разобраться с природой пользовательских запросов. Таковые подразделяются на четыре крупные категории:

Информационные поисковые запросы

Таковые люди спрашивают у поисковой системы, если перед ними стоит какой-то нуждающийся в решении вопрос. Система выдает список сайтов, в большей или меньшей степени соответствующих заданному, после чего клиент начинает поочередно переходить по страничкам из верхнего перечня выдачи, изучая результаты на предмет релевантности. Останавливается человек, когда удается обнаружить необходимые данные.

Чаще всего информационные запросы начинаются с вопросительного слова, хотя нередко прибегают к относительно неочевидному для машинного языка выражению мысли – запрашивают помощь или советы, отзывы или правила (инструкции). Если владелец ресурса знает, какие именно запросы чаще всего приводят к нему пользователя (или могли бы приводить), необходимо формировать семантическое ядро под каждую страницу с учетом этой информации. Если проект некоммерческий, то именно информационные запросы приносят почти весь объем трафика. Чтобы монетизировать сайт, можно прибегнуть к контекстной рекламе или другим сходным возможностям.

Навигационные – это такие запросы, которые дают четкую характеристику виртуальной странички. Именно благодаря им в будущем будут осуществляться переходы.

Транзакции, по мнению многих специалистов СЕО, являются наиболее любопытной категорией из всех возможных запросов. Через них можно получить представление, для каких целей клиент ищет сайт. Одни нуждаются в материале для ознакомления, другие скачивают файлы, третьи совершают покупки. Зная особенности транзакционных запросов, можно построить собственный бизнес в интернете. Между прочим, некоторое время назад именно через них развивались почти все, предлагающие услуги, сайты, а также виртуальные магазины.

Особенность вопроса

Не все так легко и просто. Запросы, которые может выявить СЕО-специалист, составляя семантическое ядро, применяются всеми конкурентами. С одной стороны, их использование не может быть гарантом успеха программы продвижения – слишком много соперников. В то же время их отсутствие делает программу развития сайта практически невозможной. Применяя конкурентные запросы, можно успешно привлечь аудиторию на продвигаемую страницу. Если предполагается раскрутка на основе именно таких запросов, нужно проконтролировать, что пользователь, оказавшись на страничке, может совершить соответствующую транзакцию.

Не все уверены, стоит ли применять такой тип запросов, если продвигается страница не коммерческого, а информационного характера. Специалисты заверяют, что это абсолютно корректное решение. При этом нужно предусмотреть возможность совершения пользователем действий на страничке. Самый простой вариант – контекстная реклама, соответствующая содержимому, партнерская программа.

Общие запросы

Это такие формулировки, из которых сложно понять, что именно ищет пользователь. Например, это могут быть «двигатель авто» или «кисточка для румян». По какой причине пользователь ищет информацию, только из самого запроса совершенно не ясно. Кто-то заинтересован, как предмет устроен и из чего сделан, другой ищет возможность купить, а третий исследует ассортимент предложения на рынке. Возможно, пользователь хочет найти инструкцию по самостоятельному изготовлению предмета или осуществлению работы, но другой человек заинтересован в том, чтобы заказать услугу – например, поклейку обоев в комнате. Учитывать общие запросы при формировании контекстного ядра нужно, но не стоит делать на них особенный акцент, если проект не посвящен, например, всем возможным типам кисточек для румян или обоям и всему, что с ним связано, от производственных вопросов до правил окрашивания.

Частотность: конкуренция на каждом шагу!

Характеристика частотности – одна из ключевых при выборе подходящего наполнения семантического ядра. В общем случае все запросы делятся на три крупные группы, при этом к низкой частоте относятся попадающие в месяц в поисковую систему менее двух сотен раз, к высокой частоте причисляют запрашиваемые более тысячи раз вопросы, а средний уровень – все, что между указанными границами.

Указанные значения – общие, для каждой конкретной области они будут уникальными, цифры существенно варьируются. Чтобы правильно сформировать семантическое ядро, нужно не просто знать показатели поисковой системы по запросам, которые предполагается включить, но и представлять иерархическую структуру развиваемого сайта, прорабатывать внутреннюю оптимизацию. Одним из самых полезных современных инструментов для формирования семантического ядра специалисты признают «Яндекс.Вордстат». Он помогает выявить частоту запросов, на основании чего можно составить расширенный перечень и избавиться от лишних, пустых запросов. Для создания структуры рекомендуется сделать не менее трех циклов работы с перечнем запросов при применении возможностей «Яндекс.Вордстат».

Как собрать и разгруппировать семантическое ядро: полная инструкция

В этом посте мы расскажем полный алгоритм сбора семантического ядра преимущественно для информационного сайта, но данный подход можно применять и для коммерческих сайтов.

Первоначальная семантика и создание структуры сайта

После того, как выбрали нишу для нашего сайта. Теперь переходим к созданию семантики. Самый нелюбимый процесс для многих. Но тем не менее, сбор семантического ядра — это самый важный этап в построении сайта. От того как вы проработаете ядро зависит ваша структура, трафик, ваши текста, даже ваш дизайн сайта.

Под сбором семантического ядра подразумевается и его группировка. Без группировки это не семантическое ядро, а никому не нужный список запросов.

Краткий план сбора семантическое ядро у меня выглядит вот так:

  1. Парсинг поисковиков wordstat, adwords, подсказок, база ключевых слов букварикс (пока бесплатная), youtube
  2. Группировка ядра
  3. Бесплатный сбор у конкурентов + Группировка ядра
  4. Платный сбор у конкурентов + Группировка ядра

На первом этапе при сборе семантики мы уже будем иметь представление о сайте, погрузимся в нишу и её нюансы. У нас появится основная структура сайта. А также уже окончательно сделаем выводы, стоит ли вообще нам ввязываться в эту нишу.

Поэтому я регистрирую домен и заказываю хостинг, только после первого этапа сбора семантики. Это кстати иногда помогает подобрать красивый домен, потому что вы знаете уже все слова своей тематики.

На втором и третьем этапе уже можно углубляться в семантику и парсить конкурентов, искать интересные ключи.

1 и 2 этап можно менять местами, об этом будет написано ниже — в подразделе структура сайта.

Так как у нас узконишевые сайты, то надо как можно тщательнее проработать семантику и охватить все ключевые слова. От этого будет зависеть успех продвижения. Чем полнее охвачена семантика, тем выше в топе будет ваше главное ключевое слово, да и все слова получат бонус. Это и логично, как для людей, так и для поисковых систем. Если ваш сайт раскрывает полностью тематику, то значит он круче. И он должен ранжироваться лучше.

Подготовка слов для парсинга и первоначальная структура сайта

Перед тем как начать парсить слова, нам надо знать их. Поэтому нам надо составить первоначальную структуру нашего сайта и начальные слова для парсинга (их еще называют маркерами).

Первоначальную структуру и слова вы можете посмотреть:

1. Используя логику, слова из головы (если вы понимаете в теме).
2. У своих конкурентов, которых вы проанализировали при выборе ниш или введя ваш основной запрос.
3. Из википедии. Обычно это выглядит вот так:

4. Смотрим wordstat по вашим основным запросам и правую колонку.
5. Другие тематические книги и справочники.

Например, тема нашего сайта – болезни сердца. Понятно, что у нас в структуре обязательно должны быть все болезни сердца.

Вам не обойтись без медицинского справочника. Я бы не стал смотреть конкурентов, потому что у них могут быть представлены не все заболевания, скорее всего они не успели их охватить.

И ваши начальные слова для парсинга будут именно все болезни сердца, а уже исходя из ключей, которые мы напарсим, вы будете строить структуру сайта, когда начнете их группировать.

К тому же вы можете взять все препараты для лечения сердца, как расширение темы и т.д. Вы смотрите википедию, рубрики у конкурентов на сайте, wordstat, думаете логически и таким способом находите еще маркерные слова, которые будете парсить.

Структура сайта

Вы можете смотреть конкурентов для общего ознакомления, но не всегда вы должны делать структуру как у них. Вы должны исходить в большей степени из логики вашей целевой аудитории, они же вводят запросы, которые вы парсите у поисковиков.

Например, как поступить? Перечислить все болезни сердца, а от них уже вести симптомы, лечение. Или все-таки сделать рубрики симптомы, лечение, а от них уже вести болезни. Эти вопросы обычно решаются при группировке ключевых слов исходя из данных поисковых систем. Но не всегда, иногда вам придется делать выбор самостоятельно и решать, как сделать структуру наилучшей, потому что запросы могут пересекаться.

Вы должны всегда помнить, что структура создается на протяжении всего сбора семантики и иногда в первоначальном виде она состоит из нескольких рубрик, а уже при дальнейшей группировке и сборе она расширяется, так как вы начинаете видеть запросы и логику. А иногда вы сможете её составить и сразу не парся ключевые слова, потому что знаете хорошо тематику или она отлично представлена у конкурентов. Никакой системы по составлению структуры сайта нет, можно сказать это лично ваше творчество.

Структура может быть вашей индивидуальной (отличающейся от конкурентов), но обязательно она должна быть удобной для людей, отвечать их логике, а значит логике и поисковых систем и такой, чтобы можно было охватить все тематические слова в вашей нише. Она должна быть лучшей и удобной!

Думайте наперед. Бывает такое что берете нишу, а потом вам охота ее расширить, и вы начинаете менять структуру всего сайта. А созданную структуру на сайте, очень сложно и муторно менять. В идеале вам надо будет поменять урлы вложения и все это переклеить на самом сайте. Короче, это жесть какая нудная и очень ответственная работа, так что сразу определяйтесь окончательно по мужски, что и как у вас должно быть!

Если вы очень плохо знакомы с тематикой создаваемого сайта и не знаете, как будет строиться структура, не знаете какие начальные слова для парсинга взять, то 1 и 2 этап сбора вы можете менять местами. То есть сначала пропарсить конкурентов (как их парсить разберем ниже), посмотреть их ключи, на основе этого составить структуру и начальные слова для парсинга, а потом уже парсить wordstat, подсказки и т.д.

Для составления структуры я использую майнд менеджер — Xmind. Он бесплатен и в нем есть все основное.

Простенькая структура выглядит вот так:

Это структура коммерческого сайта. Обычно в информационных сайтах нет пересечений и всяких фильтров карточек товаров. Но и эта структура не сложная, составлялась для клиента, чтобы он понял. Обычно мои структуры состоят из множество стрелок и пересечений, комментариев — в такой структуре могу разобраться только я сам.

Можно ли создавать семантику по ходу наполнения сайта?

Если семантика легкая, вы уверены в теме и знаете её, то можно делать семантику параллельно с наполнением сайта. Но первоначальную структуру надо накидать обязательно. Я сам иногда такое практикую в очень узких нишах или в очень широких, чтобы не тратить много времени на сбор семантики, а сразу запускать сайт, но всё-таки не советовал бы так делать. Вероятность ошибок очень большая, если у вас нет опыта. Все-таки легче, когда вся семантика готова, вся структура готова и все разгруппировано и понятно. К тому же в готовой семантике вы видите каким ключам надо уделить первостепенное внимание, которые не имеют конкуренцию и принесут больше посетителей.

Еще здесь надо отталкивать от размера сайта, если ниша широкая, то нет смысла собирать семантику, лучше ее делать по ходу, потому что на сбор семантике может уйти месяц и более.

Так вот мы накидали первоначально структуру или не накидали, решили идти вторым этапом. У нас есть список начальных слов или фраз нашей тематики, которые мы можем начать парсить.

Парсинг и работа в keycollector

Для парсинга конечно же использую keycollector. Я не буду останавливаться на настройке keycollectora, вы можете почитать хелп этой программы или найти статьи по настройке в интернете, их очень много и там все подробно расписано.

При выборе источников парсинга стоит рассчитывать свои трудозатраты и их эффективность. Например, если вы будете парсить базу Пастухова или MOAB, то вы закапаетесь в куче мусорных запросов, которые надо будет отсеивать, а это время. И по моему мнению, это того не стоит, чтобы найти парочку каких-то запросиков. На тему баз есть очень интересное исследование от RushAnalytics, конечно же они там хвалят себя, но если на это не обращать внимание, весьма интересные данные по процентам плохих ключевых слов http://www.rush-analytics.ru/blog/analytica-istochnikov-semantiki

На первом этапе я парщу wordstat, adwords, их подсказки и использую базу ключевых слов Букварикс (десктопная версия бесплатна). Так же раньше просматривал подсказки из Youtube вручную. Но недавно keycollector добавил возможность их парсить, и это прелестно. Если вы полный извращенец, то можете сюда добавить другие базы ключевых слов.

Запускаете парсинг и понеслось.

Чистка семантического ядра для информационного сайта

Мы спарсили запросы и у нас получился список различных слов. В нем конечно же присутствуют нужные слова, а так же и мусорные – пустые, не тематические, не актуальные и т.д. Поэтому их надо почистить.

Ненужные слова я не удаляю, а перемещаю их в группы, потому что:

  1. Они в дальнейшем могут стать пищей для размышления и приобрести актуальность.
  2. Исключаем вероятность случайного удаления слов.
  3. При парсинге или добавление новых фраз, они не будут добавляться, если поставить галочку.

Я иногда забывал её ставить, поэтому настраиваю парсинг в одной группе и парсю ключи только в ней, чтобы сбор не дублировался:

Вы можете работать так или так, кому как удобно.

Сбор частотностей

Собираем у всех слов через direct, базовую частотность [W] и точную [“!W”].

Все что не собралось, дособираем через wordstat.


Чистка однословников и не формат

Фильтруем по однословникам, смотрим их и убираем не нужные. Есть такие однословники по которым нет смысла продвигаться, они не однозначные или дублируют другой однословный запрос.

Например, у нас тематика — болезни сердца. По слову “сердце” нет смысла продвигаться, не понятно, что человек имеет ввиду — это слишком широкий и неоднозначный запрос.

Так же смотрим, по каким словам не собралась частотность – это либо в словах содержатся спец символы, либо слов в запросе более 7. Переносим их в неформат. Малая вероятность что такие запросы вводят люди.

Чистка по общей и точной частотности

Все слова с общей частотностью [W] от 0 до 1 убираем.

Так же убираю и все от 0 до 1 по точной частотностью [”!W”].

Разношу их по разным группам.

В дальнейшем в этих словах можно найти нормальные логические ключевые слова. Если ядро маленькое, то можно сразу вручную все слова с нулевой частотностью пересмотреть и оставить, которые как вам кажется вводят люди. Это поможет охватить тематику полностью и возможно, по таким словам будут переходить люди. Но естественно эти слова надо использовать в последнюю очередь, потому что по ним большого трафика точно не будет.

Значение от 0 до 1 тоже берется исходя от тематики, если ключевых слов много, то можно фильтровать и от 0 до 10. То есть все зависит от широты вашей тематики и ваших предпочтений.

Чистка по полноте охвата

Теория здесь такова: например, есть слово – “форум”, его базовая частотность составляет 8 136 416, а точная частотность 24 377, как видим отличие более чем в 300 раз. Поэтому можно предположить, что данный запрос пустой, он включает очень много хвостов.

Поэтому, по всем словам, я рассчитываю, такое KEI:

Точная частотность / Базовая частотность * 100% = полнота охвата

Чем меньше процент, тем больше вероятность что слово пустое.

В KeyCollector эта формула выглядит вот так:

YandexWordstatQuotePointFreq / (YandexWordstatBaseFreq+0.01) * 100

Здесь тоже все зависит от тематики и количества фраз в ядре, поэтому можно убирать полноту охвата меньше 5%. А где ядро большое то можно не брать и 10-30%.

Чистка по неявным дублям

Чтобы почистить неявные дубли, нам необходимо по ним собрать частотность Adwords и ориентироваться по ней, потому что она учитывает порядок слов. Экономим ресурсы, поэтому будем собирать этот показатель не у всего ядра, а только у дублей.

Таким способом мы нашли и отметили все не явные дубли. Закрываем вкладку — Анализ неявных дублей. Они у нас отметились в рабочей группе. Теперь отобразим только их, потому что съем параметров происходит только тех фраз, которые у нас показаны в группе на данный момент. И только потом запускаем парсинг.

Ждем, когда Adwords снимет показатели и заходим в анализ неявных дублей.

Выставляем вот такие параметры умной групповой отметки и нажимаем – выполнить умную проверку. Таким способом у нас в группе дублей не отметятся только самые высокочастотные запросы по Adwords.

Все дубли лучше конечно еще пробежаться и глянуть вручную, вдруг там что-то выставилось не так. Особенно уделить внимание группам, где нет показателей частотности, там дубли отмечаются случайно.

Все что вы отмечаете в анализе неявных группах, это проставляется и в рабочей группе. Так что после завершения анализа, просто закрываете вкладку и переносите все отмеченные неявные дубли в соответствующую папку.

Чистка по стоп словам

Стоп слова я тоже делю на группы. Отдельно заношу города. Они могут пригодится в дальнейшем, если мы надумаем делать каталог организаций.

Отдельно заношу слова содержащие в себе слова фото, видео. Вдруг они когда-нибудь пригодятся.

А так же, “витальные запросы”, например википедия, отношу сюда и форум, а так же в мед теме сюда могут относится – малышева, комаров и т.д.

Все так же зависит от тематики. Можно еще делать отдельно и коммерческие запросы – цена, купить, магазин.

Получается вот такой список групп по стоп словам:

Чистка накрученных слов

Это касается конкурентных тематик, их частенько накручивают конкуренты, чтобы ввести вас в заблуждение. Поэтому необходимо собрать сезонность и отсеять все слова с медианой равной 0.

А так же, можно глянуть соотношение базовой частотности к средней, большая разница может тоже указывать на накрутку запроса.

Но надо понимать, что эти показатели могут говорить и о том, что это новые слова по которым только недавно появилась статистика или они просто сезонные.

Чистка по гео

Обычно проверка по гео для информационных сайтов не требуется, но на всякий случай распишу этот момент.

Если есть сомнения, что часть запросов геозависимые, то лучше это проверить через сбор Rookee, он хоть бывает и ошибается, но намного реже чем проверка этого параметра по Яндексу. Потом после сбора Rookee стоит проверить все слова вручную, которые указались как геозависимые.

Ручная чистка

Теперь наше ядро стало в несколько раз меньше. Пересматриваем его в ручную и убираем ненужные фразы.

На выходе получаем вот такие группы нашего ядра:

Желтый — стоит покопаться, можно найти слова на будущее.

Оранжевый — могут пригодиться, если будем расширять сайт новыми сервисами.

Красный — не пригодятся.

Анализ конкуренции запросов для информационных сайтов

Собрав запросы и почистив их теперь нам надо проверить их конкуренцию, чтобы понимать в дальнейшем — какими запросами надо заниматься в первую очередь.

Конкуренция по количеству документов, title, главных страниц

Это все легко снимается через KEI в KeyCollector.

Получаем данные по каждому запросу, сколько документов найдено в поисковой системе, в нашем пример в Яндексе. Сколько главных страниц в выдаче по этому запросу и вхождений запроса в заголовок.

В интернете можно встретить различные формулы расчета этих показателей, даже вроде в свежем установленном KeyCollector по стандарту встроена какая-то формула расчета KEI. Но я им не следую, потому что надо понимать что каждый из этих факторов имеет разный вес. Например, самый главный, это наличие главных страниц в выдаче, потом уже заголовки и количество документов. Навряд ли эту важность факторов, как то можно учесть в формуле и если все-таки можно то без математика не обойтись, но тогда уже эта формула не сможет вписаться в возможности KeyCollector.

Конкуренция по биржам ссылок

Здесь уже интереснее. У каждой биржи свои алгоритмы расчета конкуренции и можно предположить, что они учитывают не только наличие главных страниц в выдаче, но и возраст страниц, ссылочную массу и другие параметры. В основном эти биржи конечно же рассчитаны на коммерческие запросы, но все равно более менее какие то выводы можно сделать и по информационным запросам.

Собираем данные по биржам и выводим средние показатели и уже ориентируемся по ним.

Я обычно собираю по 2-3 биржам. Главное чтобы все запросы были собраны по одним и тем же биржам и выведено среднее число только по ним. А не так, что какие то запросы собрали одними биржами, а другие другими и вывели среднее.

Для более наглядного вида можно применить формулу KEI, которая покажет стоимость одного посетителя исходя из параметров бирж:

KEI = AverageBudget / ( AverageTraffic +0.01)

Средний бюджет по биржам делить на средний прогноз трафика по биржам, получаем стоимость одного посетителя исходя из данных бирж.

Конкуренция по мутаген

Сервис мутаген создан специально для анализа конкуренции информационных запросов. Работает с 2011 года, принцип алгоритма не разглашается, но вполне себе годно рассчитывает. Конкуренция рассчитывается по 25 баллам. Чем больше балл, тем больше конкуренция: 1-7 низкая конкуренция, 8-15 средняя, 16 и выше, высокая. Сервис платный, но в день можно чекать 10 запросов бесплатно. Тут сразу показываются просмотры по вордстату, ключи хвосты, клики в яндекс директ.

В KeyCollector есть возможность массового сбора по мутаген.

Выводы: Если у вас бюджет ограничен то вы можете использовать первые два способа проверки конкуренции в совокупности, если готовы тратиться на анализ, то можно использовать только Мутаген или Оверлид.

Группировка семантического ядра для информационного сайта

При группировке семантического ядра я руководствуюсь здравой логикой, сравнивая её с выдачей.

Для информационных сайтов я не вижу смысла прибегать к кластеризации и четко следовать её требованиям. Поисковая система постоянно обучается и совершенствуется. Сегодня она показывает, что запросы “черный хлеб” и “ржаной хлеб” это разные продукты, а завтра покажет правильно, что это одно и тоже.

Итак, в KeyCollector у нас есть чистенький список запросов и мы собрали по нему данные из поисковой выдачи. Чтобы облегчить работу, группируем ядро средствами KeyCollector.

Заходим в анализ групп, ставим по поисковой выдаче Яндекс, сила 2. Обновляем группировку и экспортируем результаты в Excel.

Таким способом у нас получилась группировка исходя из данных поисковой системы Яндекс. Но, как я писал уже выше, что надо следовать преимущественно логике и свои предположения проверять в поисковой системе, поэтому в некоторых группах могут быть запросы, которые вообще никак к ней не относятся. Их надо все пересмотреть и доработать.

Чтобы легче было дорабатывать, лучше всего оставить несколько столбцов только с нужными данными. Обычно я оставляю: базовую частотность, точную, KEI по полноте охвата, конкуренцию.

Покажу группировку на примере, чтобы было наглядно. Например, мы создаем сайт посвященный рецептам блинов. Мы увидели, что есть множество запросов связанные с молоком. Решаем, что будем делать отдельную рубрику “Рецепты блинов на молоке”. На примере этой рубрики и рассмотрим группировку.

Смотрим первую группу:

Видим, что в группу “простого рецепта” попал общий запрос “тесто для блинов на молоке рецепт” – этим запросом человек не обязательно хочет найти простой рецепт. По логике, лучше всего этот запрос перенести в общую группу, которая будет вести на категорию со всеми рецептами блинов на молоке.

Но так же следует и глянуть выдачу в яндексе, что там вообще находится. Смотрим и видим, что действительно в выдаче по этому запросу есть пара страниц, которые ведут не на один рецепт, а на множество. Так же видим, что в выдаче большинство страниц ведут на один рецепт, при этом на рецепты тонких блинов. Но это же тупо, человек не обязательно хочет тонкие блины. Если бы он хотел тонкие блины, то он ввёл это в запрос. А у нас общий запрос, мы должны показать ему общую страницу, а он уже на ней должен определиться какие блины он хочет на молоке – с простым рецептом или тонкие блины или в дырочку или еще какие-то. В общем я мыслю так.

Переносим лишний запрос в другую группу, а точнее создаем выше новую “Рубрика рецепты блинов на молоке” отмечаем её другим цветом, потому что это рубрика, а в неё уже будут входить рецепты в нашем случае “простой рецепт блинов на молоке”. Тем самым у нас создается структура внутри семантики.

Все данные по группе суммируем. Бюджет можно выводить средним числом, так как это взаимодополняемые запросы, вы все их продвигаете на одной странице, а не по отдельности.

KEI1 (полнота охвата) выводим по уже известной нам формуле:

Получается вот такая красота:

Данные по «рубрике рецепты блинов на молоке» еще не суммируем, потому что скорее всего туда добавятся еще запросы. Но и не исключено, что в “простой рецепт блинов на молоке” тоже еще добавятся запросы.

В дальнейшем, как я и предполагал мы нашли еще похожие запросы в нашу группу с простым рецептом, которые содержали дополнение “фото”. Фото, видео – это все дополнительные запросы их можно кидать в одну группу со смежными запросами. Нет же смысла делать отдельно страницу только с фотками и только с видео? Это мать его, дубли получатся.

Видим, что и “легкий” сюда пожаловал. Простой и легкий – это одно и тоже же? Конечно же, да. Добавляем это все в нашу группу и получаем еще красивее, не забываем просуммировать новые данные.

Дальше встречаем запрос “рецепт блинов на молоке и воде”.

Тут уже посетитель хочет использовать не только молоко, но и воду. Понятно, что он пересекается вообще с другой рубрикой нашего сайта “рецепты блинов на воде”. Поэтому возникает задача, куда его определить в рубрику с молоком или в рубрику с водой или под него делать отдельную рубрику. Я под такие запросы делаю отдельные рубрики, потому что это логично.

К тому же тут еще и затесался запрос с “тонкие блины”. Его тоже отдельно, он будет страницей к рубрике “рецепт блинов на молоке и воде”

И таким вот способом перерабатываем все ядро, в итоге получается вот так:

Красным шрифтом помечены дополнительные фразы, которые имеют приставки фото, видео. Для нас это не совсем актуальные фразы. Эти фразы конкурируют с сервисами поисковых систем и трафику по ним очень мало. Но эти фразы подходят по нашему смыслу, поэтому мы их добавляем в группу.

Каждая группа помечена своим цветом. Цвет является структурой сайта, то есть уровнем вложенности страницы.

Например, если бы у нас был запрос “простой рецепт блинов на скисшем молоке”. То он бы уже шёл, как подгруппа к группе “блины на скисшем молоке” и естественно был бы выделен другим цветом. Выглядело бы это вот так:

Думаю, идея с цветом понятна. Вот так создается семантика и удобная, понятная структура сайта, где все логично и имеет свой уровень вложенности.

Новые или измененные рубрики добавляем в нашу структуру в xmind.

В общем, чтобы нормально разгруппировать ядро необходимо мыслить логически, вставать на место посетителя, отвечать на вопрос – что он хочет увидеть, введя этот запрос? А также смотреть выдачу по этому запросу и принимать решение, как поступить наилучшим образом.

Бесплатный парсинг запросов конкурентов

Чтобы парсить конкурентов, их надо знать. В анализе ниш я уже рассказывал, как определить своих конкурентов.

Выписываем всех ваших конкурентов, если вы еще этого не сделали. Надо брать только прям точных конкурентов. Например, у вас сайт по диабету, вам надо брать только сайты по диабету. Сайты, которые посвящены всей медицине с разделом диабета не подойдут, потому что у вас напарсятся другие разделы сайта, которые посвящены не диабету, и вы запаритесь их чистить.

Wizard.Sape

Заходите в KeyCollector во вкладку Wizard.Sape. Выбираем анализ доменов.

Вводим логин, пароль. Любой тематический url и своих конкурентов списком. Нажимаем начать сбор.

После сбора, в колонке частотность wordstat, появляются цифры сервиса их необходимо очистить.

Так же можно еще собрать “сбор расширений ключевых фраз” в той же самой вкладке в KeyCollector.

Megaindex

Заходим в KeyCollector во вкладку Megaindex. Вводим логин и пароль, указываем Москва, потому что Россию нельзя указать. Выбираем последнюю дату, раньше можно было парсить за весь период, но сейчас почему-то не работает, можно выбирать только определенную дату. Вбиваем домены конкурентов. И начинаем парсинг.

Rookee

Выбираем Rookee в Keycollector, составление семантического ядра.

Здесь все проще, выбираем Москва, топ 10 и вводим конкурентов с http://

Можно отдельно собрать по Яндексу, потом по Гуглу.

Так же можно собрать “сбор расширений ключевых фраз” в той же самой вкладке в KeyCollector.

Top.Mail.ru

Здесь все сложнее. Необходимо перейти в рейтинг https://top.mail.ru/, и там найти ваших конкурентов с открытым счетчиком. Обычно что-то узконишевое там сложно найти, но все равно расскажу про этот способ для общего кругозора.

Вводим вашу тематику в поле поиска рейтинга.

Получаем сайты. Как видим нашей тематики тут нет. Замочек напротив сайта – стата закрыта. Значок рейтинга – стата открыта.

Так вот, если бы мы делали сайт не по диабету, а по косметике, то первый сайт бы нам подошел. У него открыта стата и мы можем спарсить её. Переходим на него и смотрим его id.

В KeyCollector щелкаем на значок mail, сбор статистики из счетчиков TOP.Mail

Указываем id счетчика и выставляем самый большой срок данных, 3 года.

Есть так же пакетный анализ, где можно указывать сразу много счетчиков.

Так же можно спарсить глобальный рейтинг top.mail по ключевым словам, в той же самой вкладке в KeyCollector.

На этом бесплатный сбор ключевых слов у конкурентов закончен. Теперь его надо очистить и оставить только нужное.

В итоге получаем готовый список ключевых слов конкурентов, которыми можем дополнить наше ядро.

Платные способы парсинга запросов конкурентов

Из платных способов, через Keycollector, мы можем спарсить запросы конкурентов через spywords.ru, semrush.com, serpstat.com, а так же через эти сервисы собрать расширения фраз. Еще можно сюда приплести Mutagen.ru, он тоже может расширить ядро, но делает он это не очень.

Сбор аналогичен бесплатному методу, указываете конкурентов и собираете их.

Но я сейчас практически не пользуюсь этими сервисами, потому что на рынке есть лучшее решение под рунет — это сервис http://keys.so

Его нет в keycollector, но это не помеха. Без проблем все слова можно выгрузить в Excel, а потом прогнать через KeyCollector.

Чем же лучше Keyso? У него больше база по сравнению с конкурентами. Она у него чистая, нет фраз которые дублируются и пишутся в разном порядке. Например, вы не найдете там таких повторяющихся ключей “диабет 1 типа”, “1 типа диабет”.

Так же Keyso умеет палить сайты с одним счетчиком Adsense, Analytics, Leadia и др. Вы можете увидеть какие еще есть сайты, у владельца анализируемого сайта. Да, и вообще по поиску сайтов конкурентов, считаю это лучшее решение.

Как работать с Keyso?


Берем один любой сайт своего конкурента, лучше конечно побольше, но не особо критично. Потому что мы будем работать в две итерации.Вводим его в поле. Жмакаем — анализировать.

Получаем информацию по сайту, нам здесь интересны конкуренты, жмем открыть всех.

У нас открываются все конкуренты.

Это все сайты, у которых хоть как-то пересекаются ключевые слова с нашим анализируемым сайтом. Здесь будет youtube.com, otvet.mail.ru и т.д., то есть крупные порталы, которые пишут обо всем подряд. Нам они не нужны, нам нужны сайты чисто только по нашей тематике. Поэтому мы их фильтруем по следующим критериям.

Похожесть – процент общих ключей от общего числа данного домена.

Тематичность – количество ключей нашего анализируемого сайта в ключах домена конкурента.

Поэтому пересечение этих параметров уберет общие сайты.

Ставим тематичность 10, похожесть 4 и смотрим, что у нас получится.

Получилось 37 конкурентов. Но все равно еще их проверим вручную, выгрузим в Excel и если надо уберем не нужные.

Теперь переходим на вкладку групповой отчет и вводим всех наших конкурентов, которых мы нашли выше. Жмем – анализировать.

Получаем список ключевых слов этих всех сайтов. Но мы еще полностью не раскрыли тематику. Поэтому мы переходим в конкуренты группы.

И теперь мы получаем всех конкурентов, тех всех сайтов которые мы ввели. Их в несколько раз больше и здесь так же много общетематических. Фильтруем их по похожести, допустим 30.

Получаем 841 конкурента.

Здесь мы можем посмотреть, сколько страниц у этого сайта, трафика и сделать выводы, какой же конкурент самый эффективный.

Экспортируем всех их в Excel. Перебираем руками и оставляем только конкурентов нашей ниши, можно отметить самых эффективных товарищей, чтобы потом оценить их и глянуть какие у них есть фишки на сайт, запросы дающие много трафика.

Теперь мы опять заходим в групповой отчет и добавляем уже всех найденных конкурентов и получаем список ключевых слов.

Здесь мы можем список сразу фильтрануть по “!wordstat” Больше 10.

Вот они наши запросы, теперь мы можем их добавить в KeyCollector и указать, чтобы не добавлялись фразы, которые есть уже в любой другой группе KeyCollector.

Теперь мы чистим наши ключи, и расширяем, группируем наше семантическое ядро.

Заключение

На этом создание семантического ядра для информационного сайта завершено.

Советую вам мониторить историю изменений программы KeyCollector, потому что она постоянно дополняется новыми инструментами, например недавно был добавлен youtube для парсинга. С помощью новых инструментов, вы можете ещё больше расширить свое семантическое ядро.

Пожалуйста, оцените эту статью. Чтобы мы могли делать лучший контент! Напишите в комментариях, что вам понравилось и не понравилось!

Какой предпочтительный доступный и семантически правильный метод кодирования такого типа данных?

Какой предпочтительный доступный и семантически правильный метод кодирования такого типа данных?

Для значков, которые я должен использовать для каждого места, или я должен значок из CSS спрайтов? Если мы используем CSS sprite здесь, то как кодировать, и что произойдет, когда изображения будут отключены?

Каждая ссылка откроется в новом окне, и я должен указать размер файла также как для зрячих, так и для слепых пользователей?

Итак, каков наилучший способ сделать этот проект и лучший способ показать значок и указать всех пользователей, которые откроют файл в новом окне и размер файла?

Содержание таблицы должно быть доступно и понятно как можно лучше во всех условиях

  • Для знакомого пользователя, даже если изображения инвалидов
  • для пользователя экрана
  • для пользователя текстового браузера.
  • и если CSS отключен

И какова роль имен файлов PDF, видео, аудио здесь?

Как сэкономить время в два раза на сборе семантического ядра

Типичный сбор семантического ядра начинается с парсинга Wordstat или сбора ключевиков со всевозможных сервисов в KeyCollector. Затем наступает черед ручной кластеризации в Excel или KeyCollector. Весь процесс отнимает дюжину времени, а именно порядка 16–24 человекочасов seo-специалиста. Можно ли ускорить этот процесс без потери качества? Да, и мы расскажем, как это сделать.

Этап 1. Подготовительный

Шаг 1. Забыть про сбор максимального полного семантического ядра через парсеры Wordstat или KeyCollector и тем более руками. Вам не нужно тратить время seo-специалиста напрасно. Подробнее — ниже.

Шаг 2. Создать черновую структуру сайта, отталкиваясь от которой собрать семантическое ядро и, собственно, структуру сайта. Для этого даем клиенту заполнить бриф. В нем он должен описать, чем занимается компания, какие проблемы решает будущих пользователей, кто конкуренты, основные группы товаров или ключевые услуги. Посмотрите шаблон полного брифа . Если же вы владелец сайта, то ответьте на такие же вопросы для структуризации мыслей.

Шаг 3. После изучения брифа устраиваем мозговой штурм и делаем список общих ключевых фраз, которые характеризуют бизнес. Главное не прерывать мыслительный поток и записывать все фразы, даже нелепые на первый взгляд. Например, у нас интернет-магазин по продаже ортопедических матрасов, стульев и подушек. Тогда короткий список определяющих фраз будет такой:

  • ортопедические матрасы
  • ортопедические подушки
  • ортопедические кресла
  • ортопедические стулья
  • стулья для осанки
  • анатомические подушки
  • матрасы для спины
  • подушки для стульев.

Каждая фраза из этого списка — высокочастотник в тематике и определяет только тип товара. Дальше нужно расширять семантическое ядро средне- и низкочастотниками, а затем кластеризовать (разбивать всю семантику на подкатегории). На этих этапах мы и сэкономим время с помощью автоматизации.

Этап 2. Автоматизация уровень новичок

Сбор семантики

Выгрузить семантику с последующей кластеризацией можно с помощью Serpstat, поэтому шаги по работе в сервисах покажем на его примере. Также для сбора семантического ядра можно использовать SEMrush.

Шаг 1. Поочередно вводим ключевые фразы в сервис , выбираем регион поиска, под которое будет продвигаться сайт, и экспортируем все фразы из инструмента “Подбор фраз”. Также если у вас заготовлен список стоп-слов, вы можете добавить его в фильтр “Ключевые слова — не содержит” через запятую и выгрузить уже “чистую” семантику.

Процесс сбора семантики по одной ключевой фразе занимает до 3 минут.

Шаг 2. Продолжаем расширять семантику, используя инструмент “Похожие фразы”, который находит синонимы фразы и сленговые выражения. Внедряя ключевики из этого отчета, вы максимально охватите запросы аудитории. А параметр “Сила связи” подскажет вам, используют ли эту фразу в своем семантическом ядре ваши конкуренты из топ-20. Чем выше число, тем больше сайтов используют исследуемую фразу и предложенный синоним.

Выраженный результат показывается на товарах, которые люди могут искать по-всякому. Например, подушки для спины.

Шаг 3. Последний шаг в расширении семантики — это сбор поисковых подсказок поисковой системы. Преимущество в том, что сервисы собирают информацию в режиме реального времени и вытаскивают сразу все поисковые подсказки, которые может предложить Яндекс/Google. Поисковики же предлагают только до 12 подсказок на фразу.

Чтобы выгрузить все подсказки, переходим в инструмент “Поисковые подсказки” и выгружаем список.

Обратите внимание на облако популярных фраз, именно такие слова чаще всего ищут люди со словосочетанием “ортопедические матрасы”. Если среди фраз есть определенные размеры, бренды или тип изделия, то стоит включить их в ассортимент интернет-магазина.

Также под информационный тип ключевиков, как “лучшие матрасы для проблем с позвоночником”, вы можете подготовить статью к вам в блог, что станет дополнительным источником трафика и продаж.

Шаг 4. Сводим все отчеты в единую таблицу и чистим дубли с помощью плагина Remove Duplicate .

Потраченное время — до 5 минут. Зависит от количества ключевых запросов.

Пользуюсь сервисами вы уже выигрываете время перед теми, кто собирает, чистит и кластеризует семантику вручную. Чтобы понять разницу, попробуйте провести все описанные шаги, вытаскивая ключевые фразы и поисковые подсказки в Wordstat, а затем повторите инструкцию.

Кластеризация

Также экономит до 8 часов автоматическая кластеризация. Это разбивка всех ключевых фраз на смысловые группы, под которые создается структура сайта, посадочные страницы, фильтры, категории товаров и так далее.

Для этого загрузите ваш файл со всеми ключевыми фразами в инструмент кластеризации и в течение 10–30 минут, в зависимости от количества ключевиков, вы получите отчет.

Если группировка не удовлетворяет качеством, не выходя из проекта, щелкните по значку “настройки” и поставьте силу связи сильнее/слабее. Изменение настроек в пределах одного проекта бесплатное, перегруппировка семантики длится не больше 1 минуты.

Этап 3. Автоматизация уровень профи

Если вы уже собираете семантику с помощью сервисов через интерфейс, пришло время познакомить вас с API. Это набор функций, позволяющих пользователям получать доступ к данным или компонентам сервиса, в нашем случае — Serpstat. Преимущество работы по API:

  1. Можете комбинировать разные отчеты в один, не заходя в сервис. При этом данные будут выгружаться со скоростью 10 запросов в секунду. Реально ли повторить такое руками? Конечно, нет ��
  2. Лимиты API (юниты) и лимиты в интерфейсе отличаются, по API вы получаете гораздо больше данных и дешевле. Даже если у вас закончились лимиты на сбор ключевых слов в интерфейсе, вы можете выгружать фразы, используя API.
  3. Вы можете не покупать подписку на сервис, а просто купить нужное вам количество API-юнитов и получать данные, не заходя в интерфейс.
  4. Можете написать любой скрипт для API и получать любые данные в один клик, которые не смогут добыть ваши конкуренты. Например, этот бесплатный скрипт ищет ветки форумов, которые ранжируются в топ-100 поисковой системы по тем же ключевым словам, что и ваш сайт. В результате вы получите список всех найденных URL-ов, их ключевые фразы, а также их позиции.

А теперь повторим все действия по сбору семантики со второго этапа с помощью API.

Шаг 1. Скопируйте эту таблицу со скриптом в свой Google Диск.

Шаг 2. Скопируйте свой токен в личном профиле Serpstat и вставьте в соответствующее поле в таблице. Также выберите нужную базу поисковика и заполните параметры отбора ключевых фраз, добавьте список ключевых фраз, по которым вы хотите выгрузить отчеты.

Запустите скрипт, парся по очереди отчеты по подбору фраз, поисковых подсказок и похожих/сленговых фраз (см. скрин):

Программа попросит залогиниться через gmail-аккаунт и запросит доступ на разрешение работы. Подтвердите запуск скрипта, минуя предупреждение о небезопасности.

Шаг 3. Через 30–60 секунд скрипт завершит работу и соберет ключевые слова в рамках заданных параметров.

Также в этом скрипте можно настроить фильтр по минус-словам и любые другие.

Итого мы сэкономили еще несколько часов работы seo-специалиста на сведении всех отчетов в один и сборе данных по каждому ключевому слову в интерфейсе.

Скрипты для работы по API могут писать ваши seo-специалисты, а можно найти официальные в открытом доступе .

Выводы

Максимально ускоряют сбор семантического ядра без потери качества такие действия:

  1. Кластеризация с помощью специальных сервисов.
  2. Парсинг ключевых слов, подсказок и сленговых выражений по API seo-платформ.

Помните, что ваши лидирующие конкуренты в лице других бизнесов или агентств по поисковому продвижению уже используют различные сервисы автоматизации и обгоняют сборщиков семантики руками на десять шагов. Поэтому осваивайте новые решения и будьте в топе! Начать можно с seo аудита:

Получить предложение!

Подпишись и следи за выходом новых статей в нашем монстрограмме.

Быстрая чистка семантического ядра: метод «Муравейника»

О своём методе рассказывает Андрей Буйлов из агентства «Муравейник».

Один из первых шагов при продвижении сайта — создание семантического ядра (списка ключевых слов) или доработка существующего.

SEO-специалисты подходят к этому процессу с разных сторон.

Одни начинают с проработки mindmap-карты со всеми возможными комбинациями ключевых слов. Потом проверяют по частоте все варианты и получившийся список берут в работу.

Другие собирают семантику конкурентов (Serpstat, Spywords), статистику систем контекстной рекламы (Яндекс.Директ, Google AdWords), поисковые подсказки, запросы из счётчиков статистики, базы ключевых слов (Moab, «Букварикс»).

Всё это собирают вместе и начинают многочасовую фильтрацию в ручном режиме с применением некоторой автоматизации.

Мы обычно применяем оба этих способа, но к фильтрации у нас свой подход. О нём в том числе и расскажу в этой статье.

Есть разные метода сбора семантики.

Метод первый. Полностью вручную

Нереально трудоёмкий и неэффективный процесс. Останавливаться на нём не будем. Не надо так.

Пакет «MUSTHAVE-2020» для digital-агентств и веб-студий

RUWARD анонсировал главный коммерческий пакет MUSTHAVE-2020 для digital-агентств и веб-студий на весь 2020 год.

В пакет включено сразу 7 различных крутых опций, сервисов и рекламных форматов в рейтингах Руварда на следующий год.

Метод второй. С использованием инструментов

Часто используется Key Collector.

Фильтры в Key Collector Группы в Key Collector Неявные дубли в Key Collector

В нём же фильтруются запросы с нулевой частотой и проводится фильтрация с помощью подгрузки списка стоп-слов.

Применяется ещё ряд методик облегчающих процесс фильтрации, но после этого всё равно приходится часами проверять оставшиеся запросы вручную.

Наш подход

Мы много лет применяли вышеописанный подход. Но не покидало ощущение, что можно сделать это проще и быстрее.

Стали искать варианты. Причём искали не только метод фильтрации, но и выявления вероятности продвижения конкретного сайта по этому запросу. И среди прочих методик выбрали ту, которая давала наибольшее качество и скорость. Это определение «похожести» сайтов из первой десятки на продвигаемый сайт.

Логика простая: если в топе по запросу нет сайтов похожих на нас и много непохожих, то алгоритм поисковой системы и нас туда редко будет пропускать.

Позже к этому мы стали добавлять к оценке параметры конкурирующих сайтов и выводить параметр на их основе (в западных сервисах это часто называется Keyword difficulty), чтобы среди «похожих» выявить более лёгкие и сложные запросы.

Например, если на первой странице только сайты агрегаторы, то сайт конкретной организации по нему будет продвинуть маловероятно. Или если только информационные сайты, то продвинуть по такому запросу коммерческий сайт (даже его информационной страницей) также затруднительно.

Сначала мы применяли этот подход практически в ручном режиме, потом написали скрипт, который автоматизировал этот процесс.


В нём на вход подаётся:

  • список запросов;
  • целевой поисковик;
  • регион;
  • несколько похожих сайтов конкурентов.
  • похожесть топа;
  • среднее значение параметров по топам (возраста конкурентов, число их страниц в индексе, их ссылочные параметры. ).

Примеры применения

Пришёл клиент — интернет-магазин лакокрасочных материалов. От прошлого подрядчика остались 705 запросов. На первый взгляд, неплохо подобранные. Основная часть инструмента была к тому моменту готова и активно тестировалась. Сразу загрузили в него, и итог отсортировали по убыванию похожести.

В итоге в верху списка оказались сайты, у которых много похожих и мало непохожих.

Внизу — мало похожих, много непохожих.

Видно, что уже сейчас самый верх списка имеет много хороших позиций, а внизу их практически нет.

Что мы сделали дальше? Через 15 минут после получения списка запросов вернули клиенту проанализированный список запросов с прозрачной аргументацией, почему треть запросов из его списка в ближайшем будущем практически не имеют шансов выхода в топ и на них не нужно тратить время и деньги.

Ещё один пример чистого списка запросов.

Тематика: маникюрный интернет-магазин.
До внедрения методики мои ребята подобрали 2000 запросов. Как и в прошлом случае проверку «на глазок» запросы проходят.

Здесь мы уже добавили подгрузку дополнительных параметров. Аналогично отсортировали по убыванию суммарной похожести в Яндексе и Google.

Мы проверили динамику позиций запросов и опасения подтвердились. Запросы с высокой похожестью за время продвижения заметно выросли. С низкой — даже немного просели.

В результате мы отсеяли треть запросов.

И на этом этапе ввели в работу коэффициент сложности запроса Keyword Difficulty, рассчитанный на основе дополнительных параметров без учёта похожести.

Оставшиеся 2/3 запросов объединили в кластера и отсортировали кластера по сочетанию средней похожести, Keyword Dificulty и частоты и продолжили работу продвигаясь по кластерам, начиная с наиболее полезных.

Как мы это сейчас используем

  • Фильтрация грязной семантики.
  • Фильтрация чистой семантики.
  • Выявление запросов «в зоне риска».
  • Приоритизация запросов и кластеров.
  • Анализ проседания из-за смены интента запроса/кластера.

Про запросы «в зоне риска» хочется сказать отдельно. Это очень важно в клиентском SEO. Когда запускаем продвижение, часто сайт клиента находится в топе по многим запросам, где он не должен находиться и где он один. Например, когда в топе по запросу только информационные сайты и наш клиент — один коммерческий среди них. Положение по такому запросу довольно шаткое и скорее всего сайт рано или поздно по этому запросу вылетит.

И здесь важно аргументированно предупредить клиента об этом, чтобы клиент имел некоторый прогноз как в целом по продвижению, так и по группам запросов.

Мы выложили этот инструмент на поддомен своего сайта, назвали его «Муравейник Tools».

Для тех, кто дочитал до этого места и хочет обкатать эту методику, есть промокод на 5000 лимитов.
Регистрация
Промо-код: cossa

Как правильно составить семантическое ядро – сбор и группировка ключевых слов

Приветствую, дорогие сеошники!

Сегодня я решил разобрать очень важную тему. Мы будем говорить о том, как правильно составить семантическое ядро самому, разбить его по группам, а также очистить от лишних невалидных запросов. Если вы хотите более подробно узнать о том, что такое семантическое ядро, то милости прошу в материал, который доступен по приведенной ссылке.

Семантическое ядро простыми словами

Семантическое ядро – слова и словообразования, которые отождествляют тематику вашего сайта. Как правило, оно представляет собой сборник ключевиков, которые вы должны будете использовать при наполнении ресурса. Далее файл с этими ключами передается человеку, который занимается формированием технических заданий. Завершают эту цепочку копирайтеры, которые грамотно расставляют ключевые слова и фразы в статьях.

Для коммерческих сайтов данная цепочка также почти ничем не отличается, за тем лишь исключением, что ключевые слова и фразы используются в статичных элементах ресурса, описаниях товаров и услуг, а также прочих страницах с информацией.

В обоих случаях эти ключевики прописываются в мета-тегах сайта. Это одно из обязательных условий грамотного поискового продвижения веб-ресурса.

Наверное вы уже догадались, что эти слова и фразы зависят от того, что ищут пользователи в поисковых системах. Т. е. если в качестве примера взять запросы “купить красивый диван” и “магазины диванов”, то можно прикинуть, что по одному из них частота будет выше. Соответственно в интернет-магазине с диванами нужно будет указать ключ “Купить красивый диван”, чтобы поисковая система добавила в выдачу ваш ресурс по этому запросу.

Семантическое ядро или семантика – это список, состоящий из большого количества таких запросов, который, как правило, сгруппирован по определенному типу. Такое явление еще называют кластеризацией и почти во всех случаях специалисты прибегают к ее использованию. Это помогает не только составить грамотный план выписки текстов, но и определить, по каким именно типам поисковых запросов будет осуществляться продвижение.

Способы составления семантического ядра

Key Collector

Для составления семантики мы можем воспользоваться программами для создания СЯ. Какие-то из них делают почти всю работу за вас – их еще называют автоматическими. В каких-то сервисах придется больше работать самостоятельно.

Например, есть такая платная утилита Key Collector. Хотя в ней этот процесс почти полностью автоматизирован, необходимо знать, как настроить Key Collector. На выходе вам лишь остается немного прибраться в запросах, убрав оттуда наиболее бесполезные, что включает в себя запросы от роботов, спам и т. д. Стоимость такой программы составляет почти 2 000 рублей.

Яндекс Вордстат

Заниматься сбором семантики можно и с помощью сервиса от Яндекса – Вордстат. Им очень легко пользоваться, достаточно просто ввести ключевое слово, он выведет вам запросы, в которых присутствует данный ключ. Вместе с этим Wordstat покажет вам и похожие запросы, которые также могут быть интересны при продвижении.

В этой статье с помощью Вордстата мы будем собирать первичные ключи, которые понадобятся нам для дальнейшего сбора семантического ядра. Но об этом позже, а пока я приведу вам еще несколько способов, с помощью которых можно собрать семантику.

Яндекс Вордстат + СловоЁБ

Программа с таким красочным названием является абсолютно бесплатным аналогом Key Collector. Естественно и функционала в нем чуть меньше, чем в коммерческом конкуренте, но для сбора семантического ядра под поисковое продвижение этого вполне хватит.

Если вам интересно, чем СловоЁБ отличается от Кей Коллектора, просто взгляните на эту табличку.

Безусловно, отличий здесь вагон и маленькая тележка. Однако для простого сбора ядра возможностей СловоЁБа вполне хватит.

Онлайн-сервисы

Итак, помимо вышеописанных вариантов, семантику можно сделать с помощью онлайн-сервисов. Если вы забьете запрос “Сбор семантики онлайн”, то поисковик выдаст вам большое количество всевозможных онлайн-инструментов. Они могут быть как хорошими, так и плохими. И, соответственно, как платными, так и бесплатными.

С помощью различных онлайн-сервисов можно еще узнать семантическое ядро конкурентов. Будьте уверены, что практически все компании занимаются проверкой данных своих потенциальных соперников.

Заказ у специалиста

Вы можете просто купить готовое решение у специалиста. Он все сделает, и на выходе вы получите целостный файлик со всеми запросами. Далее из него уже можно будет создать список статей с техническими заданиями к ним. Ну и отдать это все на растерзание копирайтерам. Но это уже вопрос делегирования обязанностей, его сегодня затрагивать мы не будем.

Стоит ли составлять семантику?

Если вы открыли эту статью, то вас, определенно, интересует и этот вопрос тоже. Сбор семантики кажется поначалу очень муторным и тяжелым делом. Причем пользователи не всегда понимают, зачем это вообще нужно.

Если мы говорим о блоге, причем созданном с целью заработка, то у авторов таких проектов возникает вполне резонный вопрос: где, собственно, брать вдохновение и про что вообще писать. Если у вас будет готовая таблица со всеми темами и ключевыми словами, то вы точно будете знать, о чем написать свой материал. Такой подход позволит не только не сбавлять темпа, но даже и увеличить, потому как вам не придется ломать голову над темой очередной статьи. Останется только выбрать из предложенного списка и решить для себя, как именно написать тот или иной материал.

Вместе с этим все ваши статьи (при условии грамотного написания текстов и соблюдения частотности ключей) будут неплохо вылетать в топ поисковых запросов, что обеспечит вам посещаемость, и это будет еще больше подогревать ваш интерес и мотивировать на новые свершения. Заманчиво же, правда? И все это благодаря одному единственному элементу – семантике, сбор которой у вас не займет много времени.

Если же речь идет о коммерческих сайтах (лендинги, интернет-магазины и пр.), то сбор семантического ядра просто обязателен. Вот серьезно, без этого вообще никак. Семантика нам понадобится как при наполнении ресурса контентом и мета-тегами, так и для контекстной рекламы, через которую мы будем продвигать бизнес.

Для сбора семантики под контекст одного СловоЁБа будет мало. Придется покупать его расширенную версию, именуемую Кей Коллектором. Программа имеет большое количество разных опций, предназначенных как раз для работы с разными контекстными сетями (Директ, Адвордс и т. д.)

Подводя итог, приходим к выводу, что составлять семантику определенно стоит. Это повышает качество продвижения вашего ресурса и позволяет вам на порядок лучше ориентироваться в потребностях пользователей при составлении контент-плана.

Как правильно составить семантическое ядро по шагам?

При подборе СЯ мы постараемся уложиться в пять шагов. Они будут включать в себя: поиск и подбор первичных ключевых слов, парсинг их в программе СловоЁБ или Кей Коллектор (сам буду использовать первый вариант), определение частотности для каждого запроса, кластеризация и сбор хвостов, т. е. дополнительных слов, которые содержатся в поисковом запросе.

Например: купить диваны черного цвета в Краснодаре онлайн, где жирным выделен наш ключ, а все что дальше – хвост. Если в наших статьях будут присутствовать не только основные запросы, но и хвосты к ним, то вполне вероятно, что эти самые материалы будут собирать посетителей с большего количества различных вариаций этих фраз.

Что же, давайте начнем составлять семантику по шагам.

Сбор первичных ключей

Для сбора первичных слов и фраз мы будем использовать Вордстат. Но перед этим нам нужно самостоятельно придумать, на какие темы мы будем писать статьи или же осуществлять продвижение, если речь идет о коммерческом типе сайтов. Для себя я выпишу такие темы рубрик:

Думаю, что для примера 5 штук будет достаточно. В вашем случае этих тем может быть больше. При выборе первичных ключей для блога можно использовать названия рубрик, по которым в дальнейшем будет осуществляться написание текстов.

Теперь мы берем первое слово и забиваем его в Вордстат. Сервис выдает нам большое количество разных запросов с их частотностью, т. е. количеством обращений конкретно с такими словами в поисковик Яндекс. Вот так это выглядит.

Как видите, вариантов здесь предостаточно. Сервис выдал нам наиболее популярные запросы со словом заработок. В правой же части он показал похожие варианты, которые могут нам понравиться.

Казалось бы, можно на этом остановиться. Просто написать статьи с использованием ключей вроде “заработок в интернете” или “заработок без вложений” и ждать, когда десятки тысяч пользователей ринутся читать наш шедевр.

Но не все так просто, здесь представлены только высокочастотные ключевые фразы, продвигаясь по которым у нас не будет шанса попасть и в первую сотню сайтов. Выбрасывать их в помойку тоже не стоит, самое эффективное продвижение заключается в рациональном использовании всех типов ключевых слов и словосочетаний.

Теперь мы проделываем ровно то же самое по всем представленным первичным словам. А потом еще и по наиболее популярным вариациям, предоставленным самим сервисом.

После первого шага у нас на руках должен быть список из нескольких десятков самых вкусных, по нашему мнению и по мнению Вордстата, запросов. Старайтесь выбирать наиболее человеческие и правильные с точки зрения составления запросы. Я думаю, что проблем с этим возникнуть не должно.

Выглядеть это должно примерно так.

Парсинг базовых запросов при помощи СловоЁБа/Кей Коллектора

Теперь мы и переходим к самому интересному. С помощью СловоЁБа или Кей Коллектора мы должны спарсить все базовые запросы, сделав из них объемную сетку из самых различных вариаций. Иначе говоря, нам нужно получить все запросы, включающие в себя такие фразы или слова.

Создаем новый проект, используя кнопку в главном окне или в верхнем меню.

После того, как проект создан, нужно начать сбор семантики через Wordstat. Грубо говоря, программа сама подключится к Вордстату и соберет оттуда все необходимые данные. Для этого нам понадобится зарегистрировать новый аккаунт Яндекса, чтобы было не жалко, если его забанят, и вписать его данные в настройках. Сделать это нетрудно, тем более, что утилита сама выдает подсказки.

Обратите внимание, что для сбора мы используем левую колонку Вордстата. В ней будут все поисковые запросы, которые содержат этот ключ в прямом вхождении. Но мы также можем использовать и другой вариант – сбор из правой колонки, где есть “похожие” слова и фразы. Таким образом мы можем составить большое количество разносортных поисковых запросов, получив, ко всему прочему, еще и похожие.

Итак, вводим все ключи в поле выскочившего окна и после этого нажимаем на кнопку “Начать сбор”.

Процесс запустится, и программа начнет поиск запросов с содержанием нужных фраз. Само собой, чем больше будет этих самых фраз, тем больше будет запросов на выходе. Для примера я оставил один запрос “Заработок в интернете”, после чего запустил процесс. Вот такие данные мне выдала программа.

Как видите, со своей задачей она справилась, а я получил не только разносортные запросы, но и их частотность. Однако не спешите радоваться. Данные, которые я обвел красным прямоугольником, могут оказаться и вовсе бесполезными или неправильными. Такое явление еще называют грязная или базовая частотность.

Если вы будете ориентироваться на базовую частотность, то вполне возможно, что статьи, составленные с учетом, казалось бы, популярных запросов, не получат ни одного клика за несколько месяцев. По этой причине мы должны получить настоящие данные, для этого мы воспользуемся внутренним функционалом этой программы.

Получение настоящей частотности

Для получения настоящей частотности ключевых слов и фраз мы можем воспользоваться встроенным функционалом СловоЁБа или Кей Коллектора. Т. к. в этой статье мы рассматриваем работу именно с первой утилитой, я объясню все именно на ее примере. В Key Collector этот процесс почти ничем не отличается. Только возможно, что в новых версиях изменилось расположение элементов.

Но я уверен, что вы разберетесь. В СловоЁБе же мы просто находим вот такие кнопки.

Частотность “ “ – вхождение только слов, которые находятся в кавычках. Окончания и порядок могут быть разными.

Частотность ! – точное вхождение ключа с фиксированным окончанием и порядком слов.

Чистка запросов позволит получить достоверные данные по частоте запросов, исходящих от пользователей Яндекса. Разницу между двумя столбцами вы можете видеть воочию. В ключе “заработок в интернете” чистая частота запросов почти в 5 раз меньше. В других словах она может быть еще более ощутимой, поэтому обязательно после каждого сбора семантики пользуйтесь инструментами для выявления более правильных показателей.

Когда процесс составления правильных данных будет завершен, вы можете воспользоваться быстрым фильтром (с регулярными выражениями) для поиска и удаления лишних запросов. Или вы можете сделать это вручную, просто прокрутив ползунок и найдя все варианты, которые не соответствуют какому-то определенному порогу.

В этом случае я рекомендую обращать внимание на запросы, которые могут принести нам трафик. Но не старайтесь лезть сразу в высокочастотные ключи, которые, как правило, использует очень огромное количество более раскрученных сайтов.

Конкурентность всех предложенных запросов мы, конечно, перепроверим далее. Однако ежу понятно, что если частота запроса составляет несколько десятков тысяч, то и конкурентов там будет очень много.

Надо исходить из соображений рационализма, о чем я уже говорил выше. Выбирайте ключи, по которым не слишком много запросов. Непопулярные отстойники, с частотой полтора запроса в месяц нам тоже не нужны.

Кластеризация запросов

Теперь нам предстоит разделить все наше семантическое ядро, а вернее ключи, которые в нем содержатся, на группы. Кластеризовать, в рамках этого материала, я буду как раз по частотности. Это наиболее популярный вариант, который используется почти повсеместно.

Все слова и фразы мы можем разделить на высокочастотные, среднечастотные, низкочастотные и микронизкочастотные. Объяснять, по какому принципу происходит группировка, думаю, не нужно. Однако, обозначить примерные диапазоны необходимо.

Сразу скажу, что сколько людей, столько и мнений. Иногда они расходятся, считать мой вариант за абсолютную истину не стоит. Вполне возможно, что у других специалистов значения будут отличаться в большую или меньшую сторону.

  • ВЧ – свыше 10 000 запросов в месяц;
  • СЧ – от 1 000 до 10 000;
  • НЧ – до 1 000;
  • МНЧ – меньше 100.

Цифры крайне субъективны и примерны, взяты из общепринятых данных, которые я когда-то получил опытным путем. Но стоит сказать, что этот вариант я видел часто.

Принцип кластеризации по частоте будет выглядеть как разбивка всех запросов по группам, исходя из количества поисковых обращений пользователей. Их мы уже получили на предыдущем шаге, теперь нам остается распределить запросы по этим группам.

Здесь же можно ввести еще несколько групп, уже исходя не из частотности запросов, а из конкурентности, то есть количества сайтов, которые уже осуществляют продвижение по ним.

Есть высококонкурентные, среднеконкурентные и низкоконкурентные запросы. Мы можем разгруппировать все данные и по такому типу, что даже будет предпочтительнее. Для более эффективного продвижения нашего сайта мы должны подобрать запросы с наибольшей частотой и наименьшей конкуренцией. Это, конечно, в идеале.

Для кластеризации запросов можно пользоваться как автоматическими инструментами (онлайн-сервисы), так и своими собственными ручками.

Если делать это вручную, то можно в прямом смысле сойти с ума. И дабы не ломать свою психику, я бы советовал вам воспользоваться автоматическими сервисами для разбивки всех ключевых слов по группам.

Таких сервисов в интернете не так много. Более-менее хороших еще меньше, однако слава об одном из достаточно приемлемых сервисов для кластеризации семантики ходит по Рунету вот уже который год. Я говорю о сервисе Мутаген, с помощью которого мы и будем воспроизводить все вышеописанные действия.

Данный онлайн-инструмент платный, но здесь есть возможность и бесплатного использования с некоторыми ограничениями. Не более 10 проверок в сутки.

Проблем с использованием Мутагена быть не должно. Интерфейс там интуитивно понятный, на русском языке. Там же есть небольшое ЧаВо, в котором объясняются основы работы с этим сервисом.

Здесь же скажу, что для более быстрой кластеризации нужно пользоваться массовой проверкой. Не будем же мы тысячи запросов проверять по одному. Для этого придется зарегистрироваться на сервисе и только после этого раздел массовой проверки станет доступен.

Потом останется просто скопировать все ключи из СловоЁБа, ну и по завершению всех процессов изучить все показатели конкурентности, а далее и сгруппировать их.

Поиск хвостов

Напоследок мы должны взять все самые вкусные ключи, после чего попробовать поискать хвосты. Просто вбиваем нужный запрос в Яндекс, после чего он выдаст их нам сам.

Как видите, здесь их не так много. Казалось бы, зачем вообще проверять и парсить хвосты с запросов. Неужто умный Яндекс сам не закинет наш ресурс в выдачу по запросам с хвостами? Может быть и закинет, однако, если где-то на вашем ресурсе будут проскакивать материалы вот с такими хвостами, то намного более вероятно именно ваш сайт будет в топе выдачи по этим запросам.

Продвижение с использованием запросов с хвостом особенно актуально для молодых сайтов. Траста у таких ресурсов еще нет, а вот если где-то в статье будет ключ в прямом вхождении, то вероятнее всего Яндекс кинет в топ даже ресурс без траста. Яше важно, чтобы каждый пользователь получал именно то, зачем он пришел в поисковик. Поэтому стоит пользоваться этим и добавить в свое семантическое ядро запросы с хвостами.

Собирать хвосты, к большому сожалению, придется вручную. Но вам не стоит пытаться парсить хвосты для всех тысяч ключей. Делайте это избирательно, с учетом понимания того, что может быть действительно интересно вашим посетителям.

Заключение

Как видите, собрать семантическое ядро можно всего за 5 шагов. Конечно, в этой инструкции представлен базовый вариант, который поможет вам познать азы и сделать самую простую семантику. Для более серьезных проектов понадобится соответствующий подход. Например, при кластеризации ключевиков вам придется делить их не только на ВЧ и НЧ, или ВК и НК, но и на коммерческие и некоммерческие. Или даже на группы с учетом региональности.

Все это будет непременно занимать время, но если вы самостоятельно будете работать над семантикой, собирать ее и видеть, как вообще обстоят дела на рынке поисковых систем, то по прошествии времени к вам постепенно будет приходить и понимание. Вы будете находить все новые инструменты для различных процессов, сможете делать сбор семантики и ее группировку чисто на одном дыхании. Конечно же, при условии, что вам это будет интересно.

Если вы сами не хотите разбираться со всем этим, то всегда можно заказать сбор семантического ядра у фрилансера или какой-нибудь студии. В интернете полно различных контор, которые готовы спарсить все данные и просто предоставить вам Excel-файлик. Цена может быть разной. Но я уверен, что если захотеть, то можно найти хорошего специалиста.Кстати говоря, если вам что-то непонятно из этой статьи и вы никак не можете разобраться со сбором семантического ядра, то должен уведомить, что на курсе Василия Блинова “Как создать блог” этот вопрос также будет обсуждаться. Возможно вам стоит пройти обучение и получить все необходимые знания.

Цукерберг рекомендует:  Помощь - Помогите решить проблему в JavaScript!
Понравилась статья? Поделиться с друзьями:
Все языки программирования для начинающих