• Гость, Хорошего тебе дня!

Сбор и работа с семантическим ядром

Привет! Ты на форуме, который посвящен товарному бизнесу, трафику, и всему что с этим связано.
У нас тут целый мир: тренинги, блоги, партнерки и опт, чаты, встречи по городам и сервисы...
Океан всего интересного, и часть из этого будет открыто уже после регистрации...

Зарегистрируйтесь прямо сейчас, для получения доступа к форуму.
Регистрация







ZavStas

Партнерки 2.0
Товарная империя 2016 - Эконом
Река трафика - 2016
Регистрация
30 Июн 2016
Сообщения
249
Репутация
519
Адрес
Москва
FXсoin
1,360
Для чего пригодится:

- инфосайты;
- интернет-магазины;
- доры.

Что нужно для работы:

- ниша для проекта;
- немного бабла (оплатить доступ в кейсо);
- Кей коллектор (далее КК);
- время (зависит от усидчивости и скорости работы).

Рабочий процесс

Будем считать, что тема проекта уже известна, иначе нет смысла всё это затевать.

Рассмотрим на примере инфосайта под РУ-сегмент, т.е. основной источник трафа будет Яндекс. Прежде всего нам надо найти с десяток качественных конкурентов (тоже инфосайтов), где много трафа. То есть, берем тех ребят, кто смог преодолеть ту планку по трафу, которую мы для себя ставили при выборе ниши под проект. К примеру, если мы ориентировались на 1000 уников дейли, а кто-то делает 3к - это норм. Ну и чуть меньше можно брать, например, в соотношении 40 статей и 500-800 уников дейли. Такое тоже бывает и отметать их не стоит.

Сохраняем урлы этих сайтов в текстовый файл в папке проекта.

Далее идем в сервис keys.so и забираем семантику всех этих сайтов. Выгружаем в эксель и заводим в кей коллектор.
К примеру, я собираю по 10-20 конкурентов и в КК создаю 2 ветки: первая под структуру сайта, вторая содержит группы с доменами конкурентов, в которые выгружаются спаршенные ключи.

Когда ветка конкурентов в КК сформирована, создаем папку "Мусор" (туда скидываем весь хлам и ни в коем случае ничего не удаляем!) и приступаем к формированию структуры будущего сайта.

Прежде всего нам потребуется сайт с такой структурой, которая нам подходит. Можно придумать что-то свое, но это не всегда хорошо работает. Моделируем + дополняем своими идеями.

Берем структуру конкурента и раскладываем ее на группы в КК. При необходимости дополняем. Далее по каждой группе нужно определить входные запросы, по которым будем парсить.

К примеру, делаем сайт для пчеловодов и для формирования входных запросов по разделу "Ульи" нужно собрать как можно больше ключевых слов тематики: леток, маткоуловитель, рамка, кормушка, улей, надставка и т.д.
Чем больше таких слов будет собрано, тем шире охват и больше трафа.

В плане источников можно рассматривать википедию, вордстат, конкурентов, мозг (свой или чужой), книги и т.д.

При данном подходе есть плюс: запросы тех 10-20 конкурентов значительно уменьшают время парсинга, т.к. они у нас уже есть. Однако, их всё равно нужно проверять на частотность и, при желании, на конкурентность.

На данные кейсо я в этом плане не ориентируюсь. Проверяю заново.

Когда мы всё распарсили и больше идей нет, чистим мусор в группах. Можно руками, фильтрами, стоп-словами - кому как нравится. Всё, что не подходит складываем в папку "Мусор".

Что чистить:
- нетематические запросы;
- нулевки;
- те фразы, которые не проходят по частотности (рамки каждый для себя ставит сам).

После того, как всё зачищено (в том числе и выгрузки конкурентов), идем в группы конкурентов и раскидываем их запросы по нашей структуре. Делать это проще всего фильтрами, но можно и руками, если хорошо разбираетесь в теме.

Когда группы конкурентов останутся без ключей, их можно удалить. В итоге у нас остается группа "Мусор" и общая папка проекта со структурой будущего сайта.

Если есть подозрение, что ключей мало и хочется еще, можно добрать новых конкурентов и повторить процесс, создав под выгрузки их ключей новые папки.

В том случае, когда это не помогает, но хочется еще, берем базы. Из бесплатных - Букварикс. Там на 1 запрос выгружается порядка 1-1.5 млн ключей и среди тонн пустышек встречаются довольно жирные ключи, которых нет после парсинга вордстата (такое бывает, когда ограничение на глубину не дает распарсить всё).

Также не стоит забывать про подсказки, правую колонку, рамблер, мейл и т.д.

После того, как парсинг и чистки завершены, удаляем неявные дубли запросов в группах (в КК есть такая функция) и делаем кластеризацию.

Задача - сгруппировать будущие статьи в рамках каждого раздела, чтобы по итогу мы выгрузили не просто список каких-то запросов, а наборы ключей под конкретный документ.

Делать это можно по-разному:
- автоматической разгруппировкой КК;
- внешними сервисами;
- вручную.

Я предпочитаю комбинировать разбивку КК ручной доработкой с подключением логики и поисковой выдачи. Но это геморно и долго. С другой стороны, когда работа закончена, знаешь, что там всё норм и больше к этому не вернешься. Можно уже формировать ТЗ, публиковать статьи и т.д.

Если подробнее, то у меня процесс идет так:

1) Делаем в КК разбивку по 3 словам (без привязки к выдаче). Если что-то не нравится, пробуем 2 или 4 слова. Оставляем выбранный вариант и выгружаем в эксель весь раздел. Повторяем с каждой категорией.

2) Формируем отдельный Эксель-файл [далее конечный], создаем в нем разделы сайта (отдельные листы).

3) Далее из каждого файла раздела переносим сформированные блоки ключей в конечный файл и придумываем название будущей статье (пока примерное). При этом у нас каждая статья включает в себя несколько запросов и точную частотность по каждому из них.

4) Те слова, которые остались по одному, проверяем по поисковой выдаче. Если ни к одной из групп они не подходят, формируем для них отдельный раздел или вписываем их после всех статей (на будущее, когда писать уже будет не о чем). Это же касается спорных запросов, которые можно отнести к 2 и более группам.

После чего каждая группа ключей перекладывается на рыбу ТЗ и отправляется к копирайтеру, но это уже другая история.
 
Подписка на рассылку форума

Последние сообщения

Сверху