Как мы увеличили органический трафик более чем на 50% с помощью технических обновлений SEO | seo10ex.com

Как мы увеличили органический трафик более чем на 50% с помощью технических обновлений SEO | seo10ex.com

Надо признаться: мы совершили несколько ошибок при разработке и SEO Design нашего собственного веб-сайта.
Для компании, которая должна быть в авангарде онлайн маркетинга и SEO не повод для гордости. Но даже эксперты ошибаются, не так ли?
Вместо того, чтобы исправить, забыть и пойти дальше, мы наоборот решили заострить наше внимание именно, на ошибках. Мы расскажем вам в чем ошибались и что делать Вам во избежания  проблем на будущее. Более того, мы покажем вам, что и как мы исправляли и как эти исправления привели к увеличению нашего органического трафика более чем на 50% всего за один месяц.

Насколько силен ваш сайт? Оцените его с помощью наших веб аналитиков.

 

В чем суть технического SEO?


Техническое SEO - это вопросы, которые вы задаете себе при создании своего сайта. Список критериев,  выглядит примерно так:
Только один H1 на каждой странице
Ссылки на ваши самые главные рубрики из основной навигации
Добавление атрибутов alt ко всем вашим изображениям
Создание чистых URL-адресов без динамических символов
Сведение к минимуму времени загрузки страницы

Хотя все эти факторы общеизвестны и очевидны вы удивитесь, сколько веб-сайтов обходят своим вниманием эти пункты. Например, постоянные технические обновления могут творить чудеса в сфере органического роста трафика, но многие компании сотворив дизайн сайта однажды, никогда не возвращается к этому снова. 

Когда я присоединился к seo10ex в прошлом году, у  меня была возможность по-новому взглянуть на все, что мы делали до сегодняшнего дня. Я стал, все чаще, задавать себе вопросы о наших направлениях и стратегии сайта. Как мы анализируем и выявляем ошибки. Какие, в итоге, выводы из этого исходят? Я решил выяснить. 

Первое, на что я обратил внимание, были факторы, способствующие успеху некоторых из наших лучших материалов . Отсюда я провел подробный SEO Aудит нашего веб-сайта, для выявления потенциальных проблем и областей, в которых есть возможности для роста. Вскоре я начал понимать, что мы не так совершенны, как думали ...

 

Несколько технических проблем SEO (и их решения),
которые мы усвоили на собственном горьком опыте.

 

Проблема 1. Неработающие ссылки, перенаправления и страница 404

Всякий раз, когда пользователи пытались попасть на URL-адрес, которого на нашем веб-сайте не существует, они перенаправлялись на страницу 404. Например, вам надо попасть на https://seo10ex.com/ru/course/165/what-seo, а вас перенаправляют на эту страницу.
Большая проблема, если таких, несуществующих страниц у вас на сайте много. Вместо того чтобы сканировать нормальные страницы вашего сайта Google приходится сканировать то, чего на сайте нет. Но это еще не вся беда. Значительно большая проблема заключается в том, что на этот конкретный URL ссылаются 80 доменов из которых 380 обратных ссылок (Что такое обратные ссылки?) указывают на то, чего нет. И конечно, Google такие мероприятия не нравятся и относится он к этому крайне негативно.
Влияет ли это обстоятельство на рейтинг вашей страницы и на PageRank сайта?
Однозначно, Да!

Как мы с этим справились?

Первое, что мы сделали, это удалили перенаправление 301, указывающее любую страницу в субдомене offer.seo10ex.com или  www.seo10ex.com на страницу  «/ not-found». Это означает, что если для неправильного URL-адреса не было настроено перенаправление 301 на правильную страницу, он перейдет на 404 и скажет Google не включать его в свой индекс.
Второе, что мы сделали, - это удалили «/ not-found page», чтобы она перешла на страницу 404 и не рассматривалась как страница сайта на нашем веб-сайте.

Третье и последнее, что мы сделали, - это настроили 301 редирект для всех неправильных URL-адресов, на которые были ссылки, так, чтобы они указывали на релевантный или правильный URL-адрес.

В чем положительный эффект?

Количество страниц, проиндексированных Google, должно резко сократиться, и робот Googlebot будет чаще сканировать более важные для нас страницы, и реже сканировать большие объемы несуществующих URL.
Вдобавок ко всему, весь этот замечательный PageRank будет помещен в контент, по которому мы хотим ранжироваться, и даст ему огромный импульс за счет притока новых ссылок, указывающих на него правильно. Это то, как работают веб-сайты.

Проблема 2: разбивка на страницы блога (пагинация)

Одно из обстоятельств, которое напрямую воздействовала на содержание блога нашего веб-сайта, заключалась в том, как разбивка на страницы выполнялось на страницах списков. Возникли проблемы с тем, как мы связывались со страницами объявлений в блоге, например, https://seo10ex.com/blogs?page=1https://seo10ex.com/blogs?page=2 и т. д.
Все, что у нас было, это кнопки «Далее» и «Назад», и эти кнопки даже не были должным образом оформлены. Проблема была не в том, как выглядели кнопки, проблема была в поисковых системах.

Когда Google сканирует сайт в поисках контента, он переходит по ссылкам веб-страниц, пока не найдет страницу, которую ищет. Для того чтобы найти страницу, которая была написана, скажем, год назад, роботу нужно было перейти к блогу и затем переходить по каждой ссылке «Далее», пока не попадет на страницу со списком блога со ссылкой на эту статью.
Каждый раз, когда робот Googlebot (или любой другой поисковый бот) переходит по ссылке, он опускается на один уровень глубже в архитектуре веб-сайта. Чем глубже он опускается, тем менее авторитетна веб-страница в глазах поисковых систем и тем меньше она сканируется. В некоторых случаях, если страница очень глубоко в архитектуре, она может вообще не сканироваться - читайте: Основные Ингредиенты Веб-сайта.

Как мы на это ответили?

Мы хотели спроектировать навигацию в блоге с разбивкой на страницы таким образом, чтобы Google мог переходить по нескольким страницам одновременно при сканировании и охватывать большую часть наших статей в блоге значительно выше в архитектуре веб-сайта.
Для этого мы реализовали следующую навигацию:

 

Что из этого получилось?

Вдохновением для этого решения послужил мой талантливый коллега  Val Roman . Val возглавляет еще один проект по повторной публикации старого контента в блоге, c конечной целью продвинуть его выше в архитектуре сайта и в конечном итоге, повысить рейтинг. (читайте статью: Полное руководство по факторам рейтинга Google в 2021 году.)

Если это сработает, мы увидим, что в результате ряд контента в блогах получит повышение рейтинга. Это простое и небольшое изменение, но оно может добавить тонну положительных эффектов. В любом случае, это большое улучшение архитектуры контента нашего блога и общего пользовательского интерфейса.

Проблема: микроразметка схемы блога

До сегодняшнего дня мы не применяли разметку Schema.org для контента нашего блога (и вообще всего содержимого сайта, если на то пошло), для того чтобы Google мог сканировать отдельные элементы на наших веб-страницах. 

Что такое разметка Schema.org?

Schema.org – микроразметка, позволяющая структурировать данные на сайте для поисковых систем. С ее помощью поисковые системы понимают, какие данные взять для показа расширенного сниппета. ... Сниппет – это краткая информация, которая показывается в поисковой выдаче.
Проще говоря, разметка Schema.org используется для того, чтобы поисковые системы могли понять, какой тип контента находится на вашей веб-странице.

 

Что мы с этим сделали

В случае с нашим блогом мы разметили код на всех наших статьях с целью дать Google следующую информацию о статье:
1. Это сообщение в блоге.
2. Это избранное изображение сообщения в блоге.
3. Это дата и время публикации.
4. Это заголовок статьи.
5. Это основное содержание статьи.
6. Это категория, к которой относится статья.
7. Это было опубликовано seo10ex.com.
8. Это имя автора сообщения.
9. Это URL-адрес страницы автора.
10. Это изображение автора.
11. Вот краткое описание статьи.

Вы можете Проверить свои структурированные данные разметки Google . Нажмите на "перейти к тесту с расширенными результатами", введите
URL-адрес вашего блога, а затем нажмите « Проверить страницу».  Как только вы произведете эти действия, инструмент покажет все данные в раскрывающемся списке BlogPosting. Очень удобный инструмент, который выявляет все возможные ошибки кода разметки

Что это дает?

Это дает то что, с помощью разметки можно явно указать поисковым роботам, что на странице, например seo10ex.com находится товар, и передать основные параметры: название, цену, артикул, производителя и т.д. На основе этих данных Google формирует расширенные сниппеты в поисковой выдаче.
Это не окажет революционного воздействия, но это стоит того.

 

Проблема: XML-карта сайта

На нашем сайте seo10ex.com мы размещаем весь контент наших предложений. Вкратце, это весь контент, который мы используем для привлечения потенциальных клиентов - наши электронные книги, шаблоны, вебинары и т. д. Это контент, который мы  действительно  хотим размещать в поисковых системах.
Была ли у нас карта сайта? У нас даже не было карты сайта XML.
Что мы с этим сделали?
Мы просмотрели и создали новую карту сайта XML для контента всего сайта, включая наших предложений и отправили ее в Google. 

Каковы результаты?

Архитектура сайта, включая ключевые слова, по-прежнему требует значительных усилий, но карта сайта поможет Google обнаружить любой новый контент, который мы публикуем, и ускорить его ранжирование.

Результаты

Приведенный список  действительно говорит сам за себя. Мораль истории:  не стоит недооценивать эффективные технические изменения в SEO.

Комментарии

Популярные сообщения из этого блога

Best SEO plan importance | seo10ex.com

5 Gründe, warum Ihre Website bei Google nicht rankt | seo10ex.com