Как быстро понять, почему просел трафик на сайте — руководство

  • Дата:15.07.2020
  • Автор:Команда TurboSeo

просадка трафика

Быстрая реакция вебмастера и продвижение сайтов неразрывно связаны. Если поисковый трафик начинает проседать, администратор закатывает рукава, ищет причину спада и противоядие. Думаете, ваш проект очень авторитетный, и Google его не накажет? От действий поисковых роботов никто не застрахован. Посмотрите, как это может выглядеть.

что делать если упал трафик

Мониторинг Google Search Console

Подобные ситуации вебмастерам не нравятся. Следует оперативно установить причину возникшей проблемы. Для этого перемещаемся в Google Search Console. Изучите полученные уведомления. Вам могут прислать письмо из-за спамного контента и микроразметки, а также за неестественный характер ссылочной массы.

мониторинг вебмастера

Уведомление означает, что ваш ресурс попал под фильтр. Есть множество фильтров, но перечисленные выше - самые известные. Оказались под санкциями? Другие причины проседания трафика можно не учитывать - всё и так ясно. Тем, кто пострадал от Пингвина, предлагаем такой алгоритм действий:

  1. Воспользовавшись сервисом Google Disawov, скомпоновать плохие ссылки.
  2. Загрузить полученный файл.
  3. Попросить саппорт о пересмотре вердикта (составление запроса - целое искусство).
  4. Дождаться ответа.
  5. Если вердикт отрицательный, вновь заняться обратными ссылками.

Robots.txt

Происходят и досадные случайности, когда разработчики в robots.txt отключают индексацию ресурса поисковыми системами. Молниеносно проседает трафик при полном отсутствии фильтров. Известны примеры, когда в сутки терялось до миллиона человек.

Для автоматизированного контроля robots существует множество онлайн-сервисов. Подобные инструменты позволяют диагностировать ключевые параметры и сохранять историю изменений. Проверяется robots и в ручном режиме (обратите внимание на характеристику disawov).

Оптимизация сайта и внутренние ошибки

Внутренняя проверка позволяет выявить редиректы и другие серьезные ошибки, из-за которых оптимизация сайта перестает приносить плоды. Ключевая проблема - редиректы. Чтобы выявить неполадки, надо переместиться в Screaming Frog SEO Spider и поставить скан своего ресурса. После сканирования система выдаст детализированный отчет.

ошибки сайта

Убедитесь, что главные теги не вылетели, протоколы присутствуют на страницах, а левых редиректов не обнаружено. Расклейка страниц - худший из возможных сценариев. Именно расклейка может испортить индексацию, похоронив работу оптимизатора. Внимательно изучайте summary, не упускайте баги.

Google Analytics

Выпавшие странички быстро обнаруживаются посредством аналитики от Гугла. Для этого надо выбрать понравившуюся дату и сопоставить ее с похожим хронологическим отрезком. Логичным решением будет опираться на дату обрушения трафика. Вот пример.

анализ трафика сайта

Оптимизатора должны заинтересовать страницы, просевшие в выдаче больше всего.

страницы входа сайта

Изображение четко демонстрирует масштаб катастрофы. Вы видите, что главная страница ресурса не индексируется, а название бренда пользователи не видят. Ключевые запросы не ведут на нужные страницы. Ситуация может объясняться разными причинами, включая глюки поисковой системы. Есть над чем поработать.

Съемка позиций

Речь идет о главном индикаторе, по которому вебмастер определяет падение сайта. Если снимать позиции ежедневно, в ситуацию можно будет оперативно вмешиваться. Как выглядит потенциальная угроза? Смотрим картинку.

срез позиций сайта

Запросы следует сгруппировать по тематике. У просевших страниц обнаружатся общие черты. После этого требуется детально изучить сводку. Трафик перестанет поступать из органического поиска, если продвигаемые запросы исчезли из выдачи.

упавшие позиции сайта

Проверка индексации

Два ключевых параметра, влияющих на отток трафика - индексация и доступность. Всё поисковое продвижение основано на быстрой индексации страниц Гуглом. Представим это утверждение в виде простой схемы.

индексация сайта

Если странички доступны, следует разобраться с их индексацией - при отсутствии позиций не может быть и трафика. Самые востребованные службы проверки - Google Search Console и Site Tracker. Доступны и другие сервисы. Заглянем в Search Console.

проверка индексации сайта

Ничего не понятно? Справиться с задачей поможет парсинг. Можно спарсить индекс или весь сайт, а затем провести сравнительный анализ. Есть и специальные сервисы для мониторинга. 

Настройте автоматическое уведомление при колебаниях индекса в пределах 15-25 процентов. Это здорово облегчит рутинную работу вебмастера.

Нормальное функционирование сервера и проверка DNS

Удостоверьтесь в том, что сервер не упал, а время обратного отклика в норме. Если случилось первое, боты не смогут попасть на ваш сайт, что приведет к отсутствию трафика. Служба Site Tracker позволяет контролировать ситуацию на пятиминутных отрезках и быстро реагировать на малейшие изменения. Хватает на рынке и других инструментов.

Разобравшись с сервером, приступайте к проверке DNS. Обычно вебмастера игнорируют эту проблему. Вот по какой схеме разворачиваются события:

  1. Вы купили у регистратора DNS, а они не работают.
  2. С сервером всё в порядке.
  3. Бот Гугла не попадает на ваш ресурс.
  4. Портал прекращает работать.
  5. Проседает трафик.
  6. Выпадают из индекса страницы.

Сервисов для ручной и автоматической проверки хватает. Посмотрите, как это может выглядеть на практике.

проблема dns

Изучите историю - вдруг сайт и раньше падал по вине name-серверов? Сразу причина не обнаружится, поскольку при нормальной работе проекта вас ничто не беспокоит. Доступность должна контролироваться постоянно. Бывает и так, что сервер в норме, DNS упали, доступность отсутствует. Вылечить это можно лишь одним способом - перейти к другому регистратору и купить там адекватный premium NS.

ошибки сайта

Уникальность контента

Потеря позиций из-за неуникального контента - распространенное явление. Администратор авторитетного проекта должен следить за такими вещами. Контент может быть скопирован на google sites, сателлиты или дорвеи. Это приведет к просадке позиций, а в некоторых случаях - вылету из индекса. Параметр проверяется разными службами:

  • Text RU;
  • Content Watch;
  • Адвего;
  • Etxt;
  • Copyscape;
  • внутренний сервис.

Нормой считается уникальность, равная (или превышающая) 85%. Некоторые трастовые сайты могут обойти эту проблему. Если идет серьезная борьба за топ, контент непрерывно воруется. Облегчить жизнь вебмастера могут premium copyscape и DMCA protect. Не забудьте про блокировку от парсеров и следите за действиями конкурентов самостоятельно. Ловите гайд.

уникальность контента

Изучение обратных ссылок

Предусматривает поисковая оптимизация и непрерывный мониторинг обратных ссылок. В ранжировании ссылочная масса играет важнейшую роль. Изучайте ссылочный профиль, спамные и свежие линки. Вот пример.

анализ ссылочной массы

Это случилось с проектом, который выбрал для продвижения удачный регион и опрометчиво влез в ТОП-3 по высокочастотным запросам. Конкуренты забросали наглеца спамными ссылками - всё записывалось в Disawov Tool. Подобная атака может похоронить новенький ресурс, не успевший набрать авторитетности. Позиции будут безнадежно утрачены. При анализе вас должна интересовать свежая ссылочная масса.

ссылочный профиль сайта

Обнаружив плохие ссылки, сразу вносите их в Disawov Tool. Анкоры при этом могут существенно различаться. Бывают такие варианты:

плохие обратные ссылки

Медлить нельзя. Заносите всю гадость в консоль вебмастера.

Ссылочная масса с PBN и процент отказов

Продвижение PBN-ссылками имеет и обратную сторону - сателлит не всегда индексируется. Если индексации нет - прячьте ссылку на свой ресурс, чтобы избежать проблем. Зачастую выпадение объясняется наличием фильтров от Гугла. Успеете быстро убрать линк - ваш сайт не пострадает.

Процент отказов вычисляется через Google Analytics. Чем выше этот показатель на ключевых страницах, тем хуже ранжирование. Ваши конкуренты будут действовать по определенным тематикам через ВЧ-запросы. Идея в том, чтобы зайти на "вражескую" страницу и быстро ее покинуть. Затем конкурент перемещается на собственный ресурс и путешествует по нему, долгое время не перегружая страницы. Если такими вещами на регулярной основе занимается сплоченная команда, вас потеснят из топа выдачи.

Чтобы бороться с недобросовестными конкурентами, улучшайте поведенческие факторы. Работайте над уменьшением процента отказов. Ниже - пример занимательного эксперимента. Вебмастер переиндексировал страницы, обновил дизайн, улучшил юзабилити и набросал больше контента. Итог - стремительный подъем.

рост позиций сайта

Вывод

Инструкция помогла вам диагностировать причины падения трафика и выработать пути решения проблемы. Описаны 12 популярных технологий, но этими приемами арсенал вебмастера не исчерпывается. Лайфхак поможет быстро получить картину происходящего, но не убережет от других неполадок. Развивайтесь, читайте наши статьи - и всё у вас наладится.