В большинстве случаев построение собственной SEO- и маркетинговой стратегии основывается на проведении анализа ТОПа и конкурентов, которые занимают верхние позиции в поисковых системах. Приходилось ли вам использовать сервисы и программы для аналитики ключевых слов в статьях конкурентов? Насколько давно вы проводили PPC-анализ для определения ключевых слов конкурентов в контексте? Ну и, конечно, кто из вас не изучал семантическое ядро ближайших конкурентов для составления своего собственного?
Конечно, совсем не использовать аналитику и возможности всевозможных сервисов и SaaS для оценки своих конкурентов просто недопустимо. Но стоит ли полагаться только на эти данные или выстраивать свою стратегию только на основании стремления “перепрыгнуть” конкурентов из ТОП-10? Нет, и ниже мы опишем основные причины.
1. Отсутствие видения полной картины
Как известно, поисковые алгоритмы учитывают сотни факторов, на основании которых сайт или проходит в ТОП-10, или остается на последних позициях. Конечно, можно использовать данные из различных сервисов для выведения корреляции по определенному параметру (например, средней длине текста). Такая корреляция может показать общие данные (например, что средняя длина текстов на первой десятке сайтов составляет 4500 знаков), однако это вовсе не значит, что ВСЕ ваши тексты должны быть аналогичной длины - тексты и статьи должны быть такими, что удовлетворяют информационные потребности ваших читателей и юзеров.
Что касается ссылочной массы, то её следует проверять, но ориентироваться на неё не стоит. Почему? Во-первых, разные SaaS для определения ссылочной массы показывают разные результаты для одного и того же конкурента. Во-вторых, существует возможность скрывать ссылки от парсеров. И, наконец, некоторые ссылки могут быть органичными и технически недостижимыми для вашего сайта. Конечно, знать средние показатели среди конкурентов полезно, но опять же - использовать эти данные как единственно верные для своей стратегии недопустимо.
2.Множество сайтов, несущих погрешность в статистику
Если в Рунете это не так развито, то на Западе встречается все чаще, когда по тому или иному поисковому запросу в ТОП-10 могут попасть не ближайшие конкуренты, а такие ресурсы, как Википедия, YouTube, социальные сети, крупные агрегаторы товаров и услуг и т.д. Конечно, такие сайты не используют специальные методики продвижения или спамные тексты для того, чтобы попасть в ТОП. Высокие позиции сайтов обусловлены, в первую очередь, их огромной популярностью и авторитетностью, но никак не правильно подобранной ссылочной массой или правильным распределением ключевых слов на странице.
3. ТОП постоянно меняется
И это не секрет даже для новичков в SEO. В 2018 году алгоритм Google должен включить в работу mobile-first индекс, благодаря которому первостепенное значение будет уделяться мобильному трафику и, соответственно, сайтам, которые должным образом адаптированы под такой трафик. Каждый квартал-полгода появляются обновления в алгоритмах поисковых систем, благодаря которым позиции сайтов постоянно меняются и т.д.
Что это значит? Всё просто: позиции сайтов, даже которые на данный момент находятся в ТОП-10, могут поменяться с выходом нового обновления поискового алгоритма или переоценки некоторых из факторов ранжирования. И конкурент, который в течение нескольких лет не давал покоя своим нахождением в ТОП-10, по ряду поисковых запросов может “уйти” на 2-3 страницу.
Конечно, есть и узкоспециализированные ниши, конкуренция в которых устоялась и сайты держатся в ТОПах по 5-6 лет. Однако такой пример - скорее исключение из правил, нежели один из вариантов, ради которого стоит копировать SEO-стратегию. Если у вас доводы в пользу или в опровержение данной статьи - будем рады увидеть их в комментариях!