Почему высокоранжируемые сайты не всегда самые оптимизированные?
Вы когда-нибудь спрашивали себя о том, почему некоторые сайты, которые не только не оптимизированы под поисковые движки, но даже не имеют беклинков – ранжируются достаточно высоко?
На днях мы тоже задались этим вопросом, поэтому решили написать об этом пост, чтобы объяснить, почему это происходит.
Ниже несколько причин, почему некоторые неоптимизированные сайты ранжируются выше.
Причина № 1: Кликабельность
Часть поискового алгоритма смотрит на кликабельность. Эта часть в процентном соотношении рассчитывает число полученных кликов по определенной фразе с общим количеством поисковых запросов по этой фразе.
Чем выше процент, тем лучше будет ваша выдача по сравнению с конкурентами. А если ваша кликабельность будет выше, чем у всех остальных, поисковики будут медленно продвигать вас еще выше, т.к. часть этого алгоритма «говорит» поисковику, что пользователи отдают вашему сайту предпочтение в выдаче.
Однако Google смотрит не только на кликабельность, но также и на показатель отказов, поскольку порой разработчики сайта могут создавать обманчивые тайтл теги и мета-описания для улучшения своих позиций.
Google оценивает количество людей, которые вернулись с вашей страницы обратно к поисковой выдаче посредством нажатия кнопки назад. Если поисковик отправляет 1000 людей на одну из ваших веб-страниц и если каждый из этой 1000 нажмет кнопку «назад» в течение нескольких секунд – это будет означать, что ваша страница нерелевантна.
Много веб-сайтов, которые не кажутся оптимизированными, хорошо ранжируются в Google, имеют высокую кликабельность и низкий показатель отказов. Все это позволяет им поддерживать свои позиции в выдаче.
В качестве примера рассмотрим этот пост. Он ранжируется хорошо по фразе “best times to post on social media” (лучшее время для постов в соц. медиа). Его позиции в выдаче будет сложно обойти, т.к. его CTR составляет 52%.
Если вы хотите посмотреть ваши CTR, зайдите в Webmaster Tools (Инструменты для веб-мастеров Google) и нажмите на профиль вашего сайта. Если у вас нету профиля, то вам нужно добавить ваш сайт в Webmaster Tools и подождать пару дней.
Как только ваш сайт отобразится – нажмите на “search traffic” (поисковый трафик), а затем нажмите на “search queries” (анализ поисковых запросов).
Причина № 2: Возраст сайта
Возраст сайта является одним из ключевых факторов, влияющих на позицию сайта в выдаче. Большинство высокоранжируемых сайтов как существуют как минимум пару-другую лет.
Конечно, большинство (но не все) из этих “старичков”, в силу своего возраста, имеют большее количество бэклинков и контента.
Что я также заметил: если вы возьмете совершенно новый сайт, наполните его большим количеством релевантных ссылок и добавите высококачественный контент – вы все равно не получите столько же трафика, сколько его получат более зрелые сайты.
И здесь мало что можно сделать, кроме как запастись терпением. Чем старше ваш сайт становится, тем больше поискового трафика вы будете получать (конечно, при условии, что вы постоянно пытаетесь улучшить ваш сайт).
Причина № 3: Наличие обратных ссылок (бэклинков).
Google в построении поисковой выдачи не основывается лишь на огромном количестве бэклинков – он также смотрит на релевантность и авторитетность ссылки.
Большинство неоптимизированных сайтов хорошо ранжируется при условии наличия нескольких высококачественных бэклинков, ведущих на правильные внутренние страницы. Например, если у вас есть небольшое число таких ссылок, но они с сайтов с расширением .edu и .gov, ваш сайт будет ранжироваться исключительно хорошо (.edu и .gov – популярные в США домены первого уровня, обозначающие образовательные (.edu) и правительственные (.gov) сайты. Процесс регистрации доменных имен с использованием этих расширений отличен от регистрации в более универсальных зонах .ru, .com, .org и т.д. – он более сложен и дорогостоящ. – прим. ред.).
В дополнение к правильным бэклинкам, эти сайты имеют также безошибочные якорные тексты (анкоры) для этих ссылок. Большинство сеошников ошибочно полагают, что Google анализирует веб-страницу, которая ведет на ваш сайт, текст этой страницы, а также околоссылочного текста. Подобный анализ помогает Google определить релевантность ссылки на ваш сайт и вашу потенциальную позицию в поисковой выдаче.
Причина № 4: Перекрестные ссылки
Даже если у вас нет самой лучшей on-page оптимизации и огромного количества бэклинков, вы по-прежнему можете хорошо ранжироваться с точки зрения всего сайта, если снабдите ваши страницы перекрестными ссылками.
И это важно не только для навигации или “хлебных крошек”, но также важно с точки зрения внутриконтентного построения. Если вы сможете разместить внутриконтентные ссылки по всему вашему сайту, а также снабдить ваши страницы перекрестными ссылками, вы обнаружите, что это положительно скажется на выдаче.
С другой стороны, если вы не снабжаете страницы перекрестными ссылками внутри контента – вы обнаружите, что некоторые ваши страницы ранжируются исключительно хорошо, в то время как другие не ранжируются. Это происходит потому, что вы не распределили ссылочный вес и авторитетность ссылок по всему вашему сайту.
Причина №5: Качество контента
С момента выхода алгоритма “Panda”, Google в состоянии определить качество контента на сайтах. Алгоритм позволил поисковику производить более детальный анализ контента, чем раньше. Например, Google может определить, что сайт слишком “худой” (с минимальным присутствием полезной информации), либо содержит дублирующий контент.
Большинство высокоранжируемых и зрелых сайтов имеют высококачественный контент. Вы можете так не считать, но позиция поисковика здесь непоколебима.
Почему?
Потому что Google смотрит не только лишь на контент, размещенный на вашем сайте. Он смотрит ваш контент и сравнивает его с контентом других сайтов схожей тематики. Поэтому если у вас более качественный контент, чем у ваших конкурентов – вы с большей вероятностью обойдете их в выдаче в долгосрочной перспективе.
Причина № 6: Конкуренция
Самое прекрасное в ранжировании, это то, что для некоторых ключевых слов наблюдается низкая конкуренция. И некоторые из этих низкочастотных ключевых запросов не часто ищутся.
По опыту можно cказать, что страницы результатов поиска для низкочастотных ключевых слов не обновляются Гуглом так часто, как некоторые высококонкурентные. Почему? Потому что больше людей ориентируются именно на конкурентные ключевые запросы.
Будь вы Гуглом, не стали бы вы прикладывать усилия для того, чтобы популярные ключевые запросы и результаты поиска чаще обновлялись, чем слова и запросы, к которым редко обращаются?
Причина № 7: Темп роста
Что нужно сделать, чтобы хорошо ранжироваться по ключевому слову?
Создать тонну релевантных бэклинков и написать кучу полезного контента, не так ли?
Хоть это и так, но это приводит к тому, что веб-мастера начинают увеличивать число ссылок слишком быстро, причем настолько быстро, что этот рост воспринимается неестественно. И велика вероятность того, что он действительно неестественен.
Google достаточно разборчив для того, чтобы это выявить – просто по причине того, что у него есть данные по большому количеству сайтов в вашем роде деятельности. Поэтому заметен прирост зрелых сайтов, где умеренный и естественный рост выступает против сфабрикованного.
Заключение
Очень много причин, по которым кажущиеся плохо оптимизированными сайты хорошо ранжируются. Семь причин, которые были перечислены – самые типичные, с которыми мы сталкиваемся на протяжении уже многих лет.
Поэтому в следующий раз, когда вы займетесь анализом сайта на предмет того, почему он ранжируется хорошо, когда вроде и не должен – велика вероятность того, что это происходит по одной из вышеназванных причин.
Как владелец сайта, вы не должны слишком сильно сосредотачиваться на конкуренции. Вместо этого фокусируйтесь на улучшении сайта. В долгосрочной перспективе, компания с лучшим товаром или услугой всегда выиграет.
Автор статьи – Neil Patel.
Оригинал статьи – на сайте quicksprout.com.
Перевод – Adventum.