Почему интересно послушать этот доклад?
- У нас 12+ опыта в SEO
- Успешная работа с большим кол-вом ниш в клиентском SEO
- Основные ниши на данный момент: Education (топовые проекты), Affiliates sites
А нужно ли делать анализ?
Перед анализом нужно четко понимать зачем это делать:
- Заходим в нишу
- Создаем-дополняем структуру сайта
- Прокачиваем продуктовую составляющую
- Адаптируем ссылочную стратегию
Для поиска конкурентов для анализа, нужно осуществить ресерч лидеров в нише и определить ключевые сайты для анализа.
Какие существуют сервисы для поиска конкурентов?
- Ahrefs
- Semrush
- Serpstat
- SpyFu
- QuickSprout
- Similarweb
- Alexa
- Megaindex
- Cognetive SEO
- SpyWords
- iSpionage
Нужно изучить Google и сделать анализ по ВЧ, СЧ, НЧ. Но! Лучше собственная семантика.
Почему?
- Максимально детальный анализ именно того, что нужно
- Своя доля рынка по конкурентам, а не общие данные сервисов
- В любом случае она вам нужна для создания лендингов
Пример: 1000$ профита без особых усилий
Потрачено: контент + ссылки = 700$
Доход от партнёрки: 1700$
Сбор семантики и определение основных конкурентов в нише
Детально про это на одном из прошлых NaZapad: https://www.youtube.com/watch?v=zU-fOox1cVo
Быстрый анализ ниши: тогда просто Ahrefs по 3-5-7 конкурентам
Алгоритм (идеальный) действий:
- Определить образующие слова
- Собрать запросы:
- Статистика поисковых систем
- Поисковые подсказки/похожие фразы
- Семантика из истории
- Семантика конкурентов
- Группировка запросов
- Чистка запросов
Инструменты сбора запросов:
1. Поисковая статистика
Goodle Adwords
поисковые подсказки
похожие запросы
2. Внутренняя статистика сайта:
Google Search Console
Google Analytics
3. Поисковые запросы конкурентов:
Semrush
Ahrefs
SerpStat
SimilarWEB
Как выглядит на практике

А как получить такой файл?
- Видимость = доля рынка: Получаем на этапе сбора и обработки ядра
- Параметры доменов: Парсим различные источники данных. Что именно, чуть дальше. Парсить помогают: A-Parser, Netpeak Checker + специальные скрипты
- Динамику по трафику: Любой источник, который вам доступен с динамикой трафика.
Приступаем к анализу. Смотрим лидеров ниши и в общем прицениваемся. Смотрим на возраст доменов и на основные затратные моменты для обычного сайта (кол-во контента и ссылок). И сразу находим конкурента для анализа:
- Самый “молодой” из топовых
- Быстро взлетел
- Небольшое кол-во страниц и ссылок
Общие итоги
- Есть понимание по общей конкурентности в нише и динамике сайтов в ней
- Если у вас есть уже сайт, то вы можете оценить, вашу долю рынка на текущий момент + выделить похожих конкурентов на основе параметров
Анализ ниши: запуск нового сайта
- Whois Creation: смотрим новые сайты
- Фильтруем по дате регистрации доменов и смотрим, что смогли выжать новые сайты из ниши
- Аналогично, фильтруем по дате первого появления в Web Archive
- Выбираем лучший из свежих сайтов
- Неплохая динамика
- Много ключевых фраз в топ 1-3-10
- Небольшое кол-во страниц и ссылок
Ahrefs Traffic Dynamic: выжимка данных + фильтрация -1год / -2года
- ah_traffic_now
- ah_traffic_1m
- ah_traffic_2m
- ah_traffic_3m
- ah_traffic_6m
- ah_traffic_9m
- ah_traffic_1y
- ah_traffic_1y4m
- ah_traffic_1y8m
- ah_traffic_2y
- ah_traffic_3y
- ah_traffic_4y
- ah_traffic_5y
Фильтруем -2 года, чтобы у проектов не было трафика. Нужно быть осторожным, могут быть нюансы: в теории мог бы быть и интересным сайтом, но переклейка.
Общие итоги
- Есть понимание по можно ли попасть в топ “быстро”
- Какое кол-во таких сайтов и какая в общем вероятность попасть в топ
- Какие ресурсы и фишки используют молодые сайты
Анализируем сайты из топ 1-3-5-10. Смотрим кому ПС прям сильно доверяет. Для страниц, которые в топе, больше упор уже на продуктовую и концертную составляющую. По сайтам: понять фишки (может “нишевание” и/или четкий фокус конкурента на кластер), которые такие сайты привели к топу. И внимательно смотрим такие сайты, даже если у них по 1-3 запроса. И Мега фокус на те сайты которые попали в топ10 + достаточно свежие.
Общие итоги
- Получаем понимание различных нюансов ниши по всем топовым сайтам как в топ 10, так и в топ 3-1
- Понимаем как быстро и за счет чего можем получить первый профит
Учитываем региональность
- Стараемся понять распределение трафика по странам
- Смотрим можно ли получать топы одновременно в разных странах или нет
- Если нет, то находим сетки и изучаем нюансы, которые вы могли пропустить
- Для старта фокусируемся на сайтах из одного-своего региона = это более мелкий (Канада, Австралия < США, Австрия < Германии, …)
Анализ по типам устройств
- Понимаем, какой тип устройств преобладает
- Соответственно понимаем первичный фокус оптимизация дизайна-продукта в целом
- Фокус на сайты с преобладающим для анализа трафиком
Анализ типа трафика по источнику
- Стараемся понять распределение трафика по типу источника
- Выделяем те сайты для анализа, где нужный тип источника трафика имеет значимую часть или в процентном или количественном размере
- Идем на SimilarWeb для более глубокого анализа
Анализ продуктовой составляющей
- Ищем сайты с хорошими поведенческими для вашей ниши
- Стоит разделять по типам сайтов: отдельно аффилиатские сайты и отдельно продукты
Выбор конкурентов для анализа контента
- Важно разбить сайт-семантику на контентные группы
- В рамках каждой из таких групп определяем своих лидеров
- Ресерчим и анализируем фишки
Что смотрим
- Структура страницы
- Принципы формирования основных зон документа: title, desctiption, header, sidebar, footer
- Тип используемого контента
- Перелинковка между страницами и группами страниц
- Какие элементы контента дают возможность страницам расширять сниппет: таблицы, списки, разметка
Классификация по типам, сбор параметров доноров — Детально про это на одном из прошлых NaZapad: https://nazapad.com/videoarchive/11/doklad-10/
Выгрузка всех ссылок с разных источников
Если взять в первом приближении, то просто по кол-ву доменов и DR
- Типы ссылок — Детальный анализ по типам ссылок
- Типы анкоров — Детальный анализ по типам анкоров
- Типы страниц на которые ссылаются — Процентное распределение обратных ссылок на разные типы страниц конкурентов
- Тематичность доменов — Смотрим насколько важны / есть в наличии тематические ресурсы, данные на основе данных SimilarWeb
- Тематичность ссылающихся страниц — Смотрим насколько важно иметь тематичные донор страниц. Смотрим к примеру по вхождению сем. ядра в title
- SimilarWeb Rank – Дополнительно также смотрим и по данным этого сервиса. Отрыв двух лидеров еще больший получается.
- Возраст доменов доноров – С насколько старых доноров идут ссылки (данные по Whois)
- Google Trust – Почему бы не обратиться к первоисточнику?
- Majestic – Citation Flow/Trust Flow
- SEMrush – reg. traffic – Количество регионального трафика
- Анкоры: распределении по кол-во слов в анкорах — Процентное распределение по кол-ву слов в анкорах
- Прокачка ссылающихся страниц 2‑м уровнем — Насколько активно конкуренты прокачивают свои обратные ссылки вторым уровнем.
- Трафик на донорных страницах — Понимание есть ли трафик на страницах доноров и в каком соотношении.
Что смотрим
- Куда ссылаются, какие параметры и другие характеристики по типам доноров
- Как идет работа с коммерческими анкорами
- Какая ссылочная масса стоит на разные типы страниц акцепторов
- Какая стратегия простановки с самых «дорогих типов» ссылок (морды, гест посты)
- Еще раз дополнительное внимание на работы с вторым уровнем ссылок у разных конкурентов
И так дальше по разным параметрам и разным конкурентам. Анализируем просевших конкурентов. Заодно тестируем свои гипотезы, которые получились в результате анализа.
Общие выводы
- Анализируем всех “основных представителей” по разным разрезам
- Анализировать варианты обратных ссылок и контента, фишек, стратегий
- Применяем результат