NaZapad 17

практическая онлайн конференция

10 часов

полезной информации

img

Как находить правильные сайты для анализа в любой нише

Видео конференции

Антон Рева Boosta

Почему интересно послушать этот доклад?

  • У нас 12+ опыта в SEO
  • Успешная работа с большим кол-вом ниш в клиентском SEO
  • Основные ниши на данный момент: Education (топовые проекты), Affiliates sites

А нужно ли делать анализ?

Перед анализом нужно четко понимать зачем это делать:

  • Заходим в нишу
  • Создаем-дополняем структуру сайта
  • Прокачиваем продуктовую составляющую
  • Адаптируем ссылочную стратегию

Для поиска конкурентов для анализа, нужно осуществить ресерч лидеров в нише и определить ключевые сайты для анализа.

Какие существуют сервисы для поиска конкурентов?

  1. Ahrefs
  2. Semrush
  3. Serpstat
  4. SpyFu
  5. QuickSprout
  6. Similarweb
  7. Alexa
  8. Megaindex
  9. Cognetive SEO
  10. SpyWords
  11. iSpionage

Нужно изучить Google и сделать анализ по ВЧ, СЧ, НЧ. Но! Лучше собственная семантика.

Почему?

  • Максимально детальный анализ именно того, что нужно
  • Своя доля рынка по конкурентам, а не общие данные сервисов
  • В любом случае она вам нужна для создания лендингов

Пример: 1000$ профита без особых усилий

Потрачено: контент + ссылки = 700$

Доход от партнёрки: 1700$

Сбор семантики и определение основных конкурентов в нише

Детально про это на одном из прошлых NaZapad: https://www.youtube.com/watch?v=zU-fOox1cVo

Быстрый анализ ниши: тогда просто Ahrefs по 3-5-7 конкурентам

Алгоритм (идеальный) действий:

  1. Определить образующие слова
  2. Собрать запросы:
  • Статистика поисковых систем
  • Поисковые подсказки/похожие фразы
  • Семантика из истории
  • Семантика конкурентов
  1. Группировка запросов
  2. Чистка запросов

Инструменты сбора запросов:

          1. Поисковая статистика

Goodle Adwords

поисковые подсказки

похожие запросы

          2. Внутренняя статистика сайта:

Google Search Console

Google Analytics

          3. Поисковые запросы конкурентов:

Semrush

Ahrefs

SerpStat

SimilarWEB

Как выглядит на практике

А как получить такой файл?

  1. Видимость = доля рынка: Получаем на этапе сбора и обработки ядра
  2. Параметры доменов: Парсим различные источники данных. Что именно, чуть дальше. Парсить помогают: A-Parser, Netpeak Checker + специальные скрипты
  3. Динамику по трафику: Любой источник, который вам доступен с динамикой трафика.

Приступаем к анализу. Смотрим лидеров ниши и в общем прицениваемся. Смотрим на возраст доменов и на основные затратные моменты для обычного сайта (кол-во контента и ссылок). И сразу находим конкурента для анализа:

  • Самый “молодой” из топовых
  • Быстро взлетел
  • Небольшое кол-во страниц и ссылок

Общие итоги

  • Есть понимание по общей конкурентности в нише и динамике сайтов в ней
  • Если у вас есть уже сайт, то вы можете оценить, вашу долю рынка на текущий момент + выделить похожих конкурентов на основе параметров

Анализ ниши: запуск нового сайта

  1. Whois Creation: смотрим новые сайты
  2. Фильтруем по дате регистрации доменов и смотрим, что смогли выжать новые сайты из ниши
  3. Аналогично, фильтруем по дате первого появления в Web Archive
  4. Выбираем лучший из свежих сайтов
  5. Неплохая динамика
  6. Много ключевых фраз в топ 1-3-10
  7. Небольшое кол-во страниц и ссылок

Ahrefs Traffic Dynamic: выжимка данных + фильтрация -1год / -2года

  • ah_traffic_now
  • ah_traffic_1m
  • ah_traffic_2m
  • ah_traffic_3m
  • ah_traffic_6m
  • ah_traffic_9m
  • ah_traffic_1y
  • ah_traffic_1y4m
  • ah_traffic_1y8m
  • ah_traffic_2y
  • ah_traffic_3y
  • ah_traffic_4y
  • ah_traffic_5y

Фильтруем -2 года, чтобы у проектов не было трафика. Нужно быть осторожным, могут быть нюансы: в теории мог бы быть и интересным сайтом, но переклейка.

Общие итоги

  • Есть понимание по можно ли попасть в топ “быстро”
  • Какое кол-во таких сайтов и какая в общем вероятность попасть в топ
  • Какие ресурсы и фишки используют молодые сайты

Анализируем сайты из топ 1-3-5-10. Смотрим кому ПС прям сильно доверяет. Для страниц, которые в топе, больше упор уже на продуктовую и концертную составляющую. По сайтам: понять фишки (может “нишевание” и/или четкий фокус конкурента на кластер), которые такие сайты привели к топу. И внимательно смотрим такие сайты, даже если у них по 1-3 запроса. И Мега фокус на те сайты которые попали в топ10 + достаточно свежие.

Общие итоги

  • Получаем понимание различных нюансов ниши по всем топовым сайтам как в топ 10, так и в топ 3-1
  • Понимаем как быстро и за счет чего можем получить первый профит

Учитываем региональность

  • Стараемся понять распределение трафика по странам
  • Смотрим можно ли получать топы одновременно в разных странах или нет
  • Если нет, то находим сетки и изучаем нюансы, которые вы могли пропустить
  • Для старта фокусируемся на сайтах из одного-своего региона = это более мелкий (Канада, Австралия < США, Австрия < Германии, …)

Анализ по типам устройств

  1. Понимаем, какой тип устройств преобладает
  2. Соответственно понимаем первичный фокус оптимизация дизайна-продукта в целом
  3. Фокус на сайты с преобладающим для анализа трафиком

Анализ типа трафика по источнику

  • Стараемся понять распределение трафика по типу источника
  • Выделяем те сайты для анализа, где нужный тип источника трафика имеет значимую часть или в процентном или количественном размере
  • Идем на SimilarWeb для более глубокого анализа

Анализ продуктовой составляющей

  • Ищем сайты с хорошими поведенческими для вашей ниши
  • Стоит разделять по типам сайтов: отдельно аффилиатские сайты и отдельно продукты

Выбор конкурентов для анализа контента

  • Важно разбить сайт-семантику на контентные группы
  • В рамках каждой из таких групп определяем своих лидеров
  • Ресерчим и анализируем фишки

Что смотрим

  1. Структура страницы
  2. Принципы формирования основных зон документа: title, desctiption, header, sidebar, footer
  3. Тип используемого контента
  4. Перелинковка между страницами и группами страниц
  5. Какие элементы контента дают возможность страницам расширять сниппет: таблицы, списки, разметка

Классификация по типам, сбор параметров доноров — Детально про это на одном из прошлых NaZapad: https://nazapad.com/videoarchive/11/doklad-10/

Выгрузка всех ссылок с разных источников

Если взять в первом приближении, то просто по кол-ву доменов и DR

  • Типы ссылок — Детальный анализ по типам ссылок
  • Типы анкоров — Детальный анализ по типам анкоров
  • Типы страниц на которые ссылаются — Процентное распределение обратных ссылок на разные типы страниц конкурентов
  • Тематичность доменов — Смотрим насколько важны / есть в наличии тематические ресурсы, данные на основе данных SimilarWeb
  • Тематичность ссылающихся страниц — Смотрим насколько важно иметь тематичные донор страниц. Смотрим к примеру по вхождению сем. ядра в title
  • SimilarWeb Rank – Дополнительно также смотрим и по данным этого сервиса. Отрыв двух лидеров еще больший получается.
  • Возраст доменов доноров – С насколько старых доноров идут ссылки (данные по Whois)
  • Google Trust – Почему бы не обратиться к первоисточнику?
  • Majestic – Citation Flow/Trust Flow
  • SEMrush – reg. traffic – Количество регионального трафика
  • Анкоры: распределении по кол-во слов в анкорах — Процентное распределение по кол-ву слов в анкорах
  • Прокачка ссылающихся страниц 2‑м уровнем — Насколько активно конкуренты прокачивают свои обратные ссылки вторым уровнем.
  • Трафик на донорных страницах — Понимание есть ли трафик на страницах доноров и в каком соотношении.

Что смотрим

  1. Куда ссылаются, какие параметры и другие характеристики по типам доноров
  2. Как идет работа с коммерческими анкорами
  3. Какая ссылочная масса стоит на разные типы страниц акцепторов
  4. Какая стратегия простановки с самых «дорогих типов» ссылок (морды, гест посты)
  5. Еще раз дополнительное внимание на работы с вторым уровнем ссылок у разных конкурентов

И так дальше по разным параметрам и разным конкурентам. Анализируем просевших конкурентов. Заодно тестируем свои гипотезы, которые получились в результате анализа. 

Общие выводы

  • Анализируем всех “основных представителей” по разным разрезам
  • Анализировать варианты обратных ссылок и контента, фишек, стратегий
  • Применяем результат