Зачем и как самостоятельно проводить техническую оптимизацию сайта?

 

Многие веб-мастера со временем начинают замечать, как уменьшается скорость загрузки страниц, понижаются позиции в поисковой выдаче и появляются дубли страниц. Все эти факторы негативно влияют на опыт пользователя при просмотре сайта и уровень конверсии.

Некоторые веб-мастера считают, что техническая оптимизация крайне затратна. Отчасти это правда, так как переработка дизайна, создание мобильной версии и переход на новый движок потребуют значительных финансовых вложений.

Мы расскажем о бесплатных улучшениях, которые требуют только времени владельца сайта.

6PCYK5y.jpg

Чем актуальна техническая оптимизация сайта

Поверхностное отношение к техническим особенностям ресурса приводят к плачевным последствиям. Некоторые владельцы считают, что сайт сделан раз и навсегда. Это не так — заброшенный сайт аналогичен автомобилю, за которым не ухаживают.

Со временем ярче проступает физическая и моральная амортизация. Необходимо постоянно поддерживать сайт в рабочем состоянии, следить за последними тенденциями сайтостроения, и каждые 4-5 лет обновлять дизайн.

Техническая оптимизация помогает в следующих сферах функционирования площадки:

  • улучшает возможности пользователя при поиске информации;
  • ускоряет работу поискового робота при анализе структуры сайта;
  • позволяет поисковым системам правильно ранжировать документы;
  • является залогом полной индексации страниц ресурса.

Как проанализировать сайт на предмет ошибок

Чтобы провести комплексный анализ ресурса, используем Serpstat.

Заходим в раздел “Список проектов”, который расположен в шапке главной страницы. Создаем проект: кликаем по кнопке “Добавить проект”, вводим адрес нашего домена (в примере магазин настольных игр gaga.ru) и название проекта.

Screenshot_740.png

Кликаем по кнопке “Начать аудит сайта”. Настраиваем аудит — выставляем лимит индексируемых страниц, и учитываем/не учитываем поддомены.

Чем больше одновременных потоков для краулинга, тем быстрее проводится проверка сайта. Однако, с увеличением количества потоков, возрастает вероятность бана нашего краулера. В такой ситуации следует периодически менять User Agent.

Screenshot_741.png

После того, как результат получен, сервис перенаправляет нас на страницу раздела “Суммарный отчет”. Здесь мы оцениваем общее состояние сайта — все ошибки разделены на разные группы в зависимости от приоритетности их решения. Оценка SDO характеризует степень оптимизированности домена.

В нашем примере наибольшее количество ошибок со средним приоритетом, с высоким приоритетом — относительно немного. Это свидетельствует о том, что наиболее важные аспекты работы сайта оптимизированы, но имеют место систематические недоработки.

Screenshot_742.png

Разделение ошибок по функциональным составляющим сайта находится внизу страницы.

В нашем случае наиболее проблемный раздел — “Мета-теги”. Наибольшее количество ошибок сосредоточено именно в нем. Переходим в этот раздел для дальнейшего анализа.

Мета-теги title и description используются поисковыми системами для формирования сниппетов — блоков информации, которые описывают сайт в поисковой выдаче.

Title – заго­ло­вок веб-стра­ницы, description — ее описание. Длина первого в интервале 75-95 знаков, второго — от 140 до 180. Их текст должен наиболее точно описывать содержание страницы, и максимально привлекать внимание пользователя.

Screenshot_743.png

Кликаем по иконке раскрывающегося списка, и кликаем по кнопке “Подробнее”. Получаем полный список страниц, на которых присутствует данная ошибка. Чтобы их быстро выгрузить, кликаем по кнопке “Экспортировать таблицу”, и выбираем удобный формат.

Screenshot_744.png

Аналогично проводим ревизию прочих ошибок. Например, на сайте из нашего примера 39 серьезных проблем с кодами ответов страниц.

Screenshot_745.png

Они связаны с тем, что на сайте присутствуют ссылки на несуществующие страницы с кодами ответов 400-499. Выглядят они непривлекательно, и оставляют осадок в настроении пользователя.

Серпстаем все проблемные страницы, настраиваем редирект, либо выносим ссылку на главную страницу в дизайн 4хх ошибки. Именно так поступили владельцы сайта в нашем случае:

Screenshot_746.png

Отдельные советы по технической оптимизации

Кроме того, что уже было сказано выше по мета-тегам и страницам с кодами ответа 4хх, следующие рекомендации помогут улучшить работу сайта:

1. Настраиваем ЧПУ для всех продвигаемых страниц.ЧПУ — сокращение от словосочетания “человечески-понятный URL”. Лучше всего перевести его или прописывать латиницей с соблюдением правил транслитерации.

2. Убираем теги h1-h6, которые выступают в качестве элементов дизайна или оформления сайта.

3. Проверяем время загрузки сайта и размер загружаемых страниц.

Для этого используем соответствующий раздел Serpstat “Скорость загрузки”.

Screenshot_747.png

Оптимальные показатели:

  • до 700 мс для скачивания исходного кода документа;
  • до 200 мс для ответа сервера;
  • до 125 КБ размер исходного кода.

Альтернативный вариант — использовать сервис Google PageSpeed Insights.

Screenshot_748.png

4. В закрытых от индексации страницах скрываем ссылки.

Это позволит корректно распределить статический вес внутри сайта. Используем файл robots.txt.

5. Выносим большие фрагменты js- и css-кода в отдельные подключаемые файлы.

Если в коде больше 10-12 строк, его необходимо вынести.

6. Создаем уникальный и яркий favicon, загружаем его в корень сайта.

7. Создаем карту сайта sitemap.

Если количество страниц превышает 50000, необходимо создать несколько sitemap.

8. Прописываем открытие всех внешних ссылок в новых вкладках.

9. Закрываем от индексирования служебные папки, неиформативные файлы (с разрешением .swf), пустые файлы .doc и .pdf, страницы входа в CMS систему в файле robots.txt.

Итоги

Техническая оптимизация — сложный комплекс мер по улучшению составляющих сайта. Для его проведения требуется анализ всех составляющих компонентов сайта.

Чаще всего проблемы у веб-мастеров связаны с мета-тегами, скоростью загрузки страниц, кодами ответа и редиректами. Необходимо также обратить внимание на индексацию страниц посредством файла robots.txt, качество дизайна, проработка мобильной версии сайта.

Чем чаще и качественней владелец сайта проводит аудит, тем быстрее загружаются страницы и проходит индексация в поисковых системах. В свою очередь, это может положительно повлиять на ранжирование сайта в поисковой выдаче и размер потока трафика.