Почти все начинающие вебмастеры и оптимизаторы часто ищут места где можно получить аудит сайта, но они порой не представляют, что именно в нём должно быть, какую полезную информацию можно извлечь из анализа. Поэтому я решил написать специальную статью как должен выглядеть аудит сайта. Ниже мы рассмотрим подробный план, какие именно требования включает добротный аудит.
1. Что такое аудит сайта
2. Что должно быть в аудите внутри сайта
2.1. Проверка уникальности каждого мета тега
2.2. Дубли на сайте
2.3. Настройка 404 ошибки
2.4. Оптимизация текста
2.5. Отформатированный контент и наличие заголовочных тегов
2.6. Оптимизация сниппетов
2.7. Битые ссылки
2.8. Настройка robots.txt
3. Общая информация
4. Анализ статистики
5. Анализ позиций
6. Анализ входящих ссылок
7. Сравнение с конкурентами и рекомендации
1. Что такое аудит сайта?
Короче говоря, на основе рекомендаций аудита можно заметно увеличить эффективность сайта (в случае выполнения его требований), а также повысить позиции в выдаче.
Я уже писал о факторах ранжирования в Яндексе. В той статье есть множество рекомендаций, которые вообще говоря должны быть упомянуты в аудите. Если все пункты из той статьи есть в отчёте, то это был бы отличный аудит сайта, который позволит получить подробную информацию о проекте. Но в аудит входит не только факторы от Яндекса, но ещё и другая важная информация. Ниже будет представлен более компактный, но не менее эффективный анализ.
Кстати, автоматизированные аудиты сайта никогда не смогут провести добротный анализ с выявлением всех проблем. Даже если они будут стоить денег. Я не провожу аудитов сайта, но зато предлагаю услугу: аудит внутренней оптимизации). Он не содержит информацию, которую можно было бы получить бесплатно. В своем аудите я опишу все проблемы связанные внутри сайта и как их исправить. Итак, что должно быть в аудите.
2. Что должно быть в аудите внутри сайта
2.1. Проверка уникальности каждого мета тега
Каждая страница должна иметь уникальные мета теги:
Это нужно как для поисковой машины, так и для пользователя. Как правило, почти на любом сайте найдутся страницы с дублями этих параметров, а это создает вопрос: какая страница релевантна ключевому слову, если на проекте их несколько. Даже если на ресурсе есть много информации по этой теме, но все они озаглавлены одинаково, то поисковая машина скорее понизит позиции, чем повысить их.
Как можно найти дубли title, description и keywords?Для небольшого сайта (например, до 100 страниц) это можно сделать и вручную, а для большего лучше использовать специальные программы и сервисы. Например, сервис MEGAINDEX бесплатно сможет найти все страницы с одинаковыми тайтлами, дескрипшанами и кейвордами.
2.2. Дубли на сайте
В аудите должны быть представлены все страницы, которые имеют одинаковый контент. Ситуация с дублями почти всегда встречается на каждом сайте работающем на движке (CMS).
Например, на самом популярном блоговом движке WordPress одна и та же запись доступна по адресам:
/category/nazvanie-stati.html и /category/?p=40
Это негативно влияет на доверие к сайту, а значит и на его позиции, поэтому рекомендуется отнестись к таким мелочам серьезно.
Не стоит также забывать о дублях вида: /category/nazvanie и /category/nazvanie/ - то есть наличие и отсутствие слэша на конце. Вроде бы почти один и тот же URL, но для поисковой машины это разные адреса. Поэтому стоит все страницы привезти к виду со слэшом в конце или без него. Этот вопрос решается через настройки 301 редиректа).
Найти все дубли на сайте — задача не из простых. Зачастую они могут быть вида: /category/statya.html/blabla и т.п. Вариантов когда сервер может отдать ответ 200 (доступна) вместо редиректа 301 или 404 ошибки много. На популярных движках все немного проще, т.к. обычно такие проблемы уже найдены. Если почитать форумы по ним, то можно найти готовые решения. А вот на "сырых" движках нужно проводить множество тестов, чтобы избавиться хотя бы от самых простых дублей.
Поиск дублей на сайте можно осуществить с помощью автоматизированных бесплатных сервисов, например, с помощью все того же MEGAINDEX. Также существуют бесплатные и платные программы.
2.3. Настройка 404 ошибки
Наличие страницы 404 ошибки стало одним из факторов ранжирования. Сделать обработку 404 ошибки просто, поэтому не стоит этим пренебрегать. Ведь это делается для посетителей и поисковых машин. О том, как настроить 404 ошибку на сайте можно почитать здесь.
Проверить наличие страницы 404 ошибки можно следующим образом: просто вбейте в адресе вашего сайта белиберду (site/blablasdffhg). Сервер должен выдать код ответа 404.
2.4. Оптимизация текста
Под оптимизацией текста я понимаю то, что текст должен быть написан для людей с наличием ключевых слов в нём. Причём ключевые слова должны быть аккуратно вписаны, чтобы не вызывать раздражение.
Сервисы не в состоянии автоматом проверить такую тонкость. Они проверяют лишь тошноту текста, что недостаточно в современных поисковых требованиях. Это только ручная и трудная работа, от неё многое зависит. Причём такую работу должен выполнять маркетолог или грамотный копирайтер.
Автоматизированные сервисы могут только сказать о том, какие ключевые словосочетания встречаются в тексте чаще всего. Зачастую может возникнуть следующая ситуация: статья была написано про одно (по-крайней мере так думал автор), а за счёт большого употребления другой фразы поисковик решил, что статья вообще про другую тему. А это означает, что и высоко ранжироваться она будет совсем по другому запросу.
2.5. Отформатированный контент и наличие заголовочных тегов
На каждой странице должен быть заголовочный тег <h1>. Причём уникальный. В принципе автоматизированные аудиты в состоянии отследить это, но не в состоянии дать правильной рекомендации по его использованию.
Контент, который поделён на подзаголовки, перечисления (тег <ul>), присутствуют картинки (тег <img>) всегда приятнее читать, чем сплошной текста ("кирпич"). Поэтому стоит уделить время на приятный и удобный вид текста.
В аудите необходимо привести страницы, которые плохо структурированы и дать рекомендации по их доработке.
2.6. Оптимизация сниппетов
Про оптимизацию сниппетов и их важность знают уже все оптимизаторы. Я даже подробно написал большую статью на эту тему. Это действительно важный фактор, о котором не стоит забывать. Автоматизировано проверить его качество невозможно. Это ещё одна долгая ручная работа оптимизатора.
В аудите должны быть представлены слабые места и рекомендации по их исправлению.
2.7. Битые ссылки
Все битые и нерабочие ссылки должны быть удалены, поскольку это мешает процессу продвижения сайта. Эту информацию можно получить бесплатно с помощью специальных программ.
Битые ссылки должны быть представлены в виде списка.
2.8. Настройка robots.txt
У каждого сайта должен быть robots.txt. Подробнее о том, что это такое и как его настроить можно ознакомиться здесь. Автоматизировано можно получить лишь информацию о том, насколько файл robots.txt корректен и какие разделы он скрывает.
По результатам анализа сайта должен быть составлен файл robots.txt.
3. Общая информация о сайте
Как правило, эту информацию можно получить автоматизировано. Огромной ценности она не представляет, ну, пожалуй, кроме времени загрузки и пузомерок. Обычно она содержит следующие данные:
- Возраст домена (как узнать возраст домена);
- Хостинг;
- Кодировку;
- Время загрузки (пожалуй единственное, что важно);
- Пузомерки (показатель ИКС Яндекса);
- Индексация в Яндексе и Google (также важная информация, в идеале количество проиндексированных страниц должно совпадать);
4. Анализ статистики сайта
Должны быть проанализированы данные по статистике посещаемости. Что именно сюда входит:
- Анализ времени проведения (если оно маленькое, то нужно понять почему);
- Изучить поведение пользователей на отдельных страницах (проанализировать вебизор);
- Поиск страниц, которые привлекают больше всего целевых посетителей (ценная информация, надо знать что развивать и улучшать в первую очередь);
- Карта кликов;
- и т.д.;
Этот важнейший пункт никакая система автоматически не в состоянии сделать. Как правило, это ручная работа и её в состоянии сделать только опытный оптимизатор. Стоимость данной услуги в отдельности колеблется очень сильно: от нескольких сотен и до десятков тысяч рублей.
Результатом анализа должны быть конкретные советы, что необходимо улучшить. В некоторых случаях можно достичь большого улучшения даже если поменять в некоторых местах шрифт (размер, цвет), сделать некоторые элементы более заметными, добавить какие-то элементарные вещи, которых не хватало. Улучшать тексты на тех страницах, которые приносят наибольшее количество целевых посетителей и т.п.
Советую ознакомиться со статьями:
5. Анализ позиций сайта
Сюда входит определение всех позиций сайта, которые находятся в топ-50. Далее отбираются все страницы, которые соответствуют параметрам и проводится тщательный анализ, что мешает подняться этой странице выше. Это уже чистая работа обыкновенного оптимизатора. Найти все позиции можно и на автомате (видимость сайта), но вот дать дельные советы по улучшению позиций никакая система не сможет. Здесь нужен человек с опытом.
Кстати, в анализ позиций сайта обычно включается пункт с рекомендациями о включении новых ключевых слов для привлечения ещё большой аудитории. Связано это с тем, что составить полное семантическое ядро сайта очень сложная задача, которую даже опытный seoшник не сможет сделать всегда верно на все 100%. Скорее всего, парочка отличных запросов вы упустили, а это дополнительные потенциальные посетители, которые можно получить в некоторых случаях довольно просто и дешево.
6. Анализ входящих ссылок
Ссылки всё меньше влияют на позиции, но их анализ все равно рекомендуется сделать, причем на автомате. Разные сервисы предоставляют различную информацию по входящим ссылкам. Связано это с тем, что они берут информацию из разных источников. Конечно, самую точную и полезную информацию о ссылках можно получить в Яндекс Вебмастерс и Google Вебмастерс. Однако рекомендуется ещё смотреть и сторонние сервисы, например, через ahrefs.
Что же сюда должно войти?
- страницы на которые наиболее часто ссылаются;
- анкоры наиболее часто встречающихся ссылок;
На самом деле обычному владельцу сайта, который плохо разбирается с продвижением эта информация почти ничего не даст. Ну какая ему разница ссылается на него 500 или 600 доменов? Его интересует вопросы как увеличить количество целевых посетителей и улучшить конверсию. Поэтому анализ входящих ссылок нужен только для SEOшников с целью роста позиций.
7. Сравнение сайта с конкурентами и рекомендации
В хороших аудитах также проводится небольшой анализ сайта по сравнению с конкурентами. Просматриваются сайты, которые занимают первые места, ищут интересные идеи, которые можно было бы применить и на анализируемом проекте.
Также должны быть рекомендации по улучшению дизайна и юзабилити. Возможно на сайте не хватает каких-то важных элементов (хлебные корочки, оформление товара, процесс оформления товара), которые мешают перейти проекту на новый уровень развития. Все эти нюансы необходимо отобразить в рекомендациях.
Итогом аудита должно стать
Полная картина о текущем состоянии сайта на данный момент, а также рекомендации по его улучшению/развитию. Автоматический аудит не в состоянии сделать такую работу.
Стоимость аудита у разных людей сильно отличается. Я бы не рекомендовал заказывать аудит за 100 рублей, поскольку за такие деньги уважающий себя оптимизатор работать не станет. Минимальная стоимость более-менее стоящего аудита 1000 рублей, но опять-таки он будет сделан так себе, но есть вероятность, что за такую сумму у вас появятся новые идеи, которых ранее не было. Моё мнение, что адекватная стоимость хорошего аудита 15000-40000 рублей.
Заказать полный аудит сайта у профессиональных оптимизаторов можно на сайте GOGETLINKS в разделе seo-услуги.
Читайте также:
• Каковы сроки продвижения сайта
• Анализ сайта Google и Яндекс webmaster
• Самостоятельная раскрутка интернет-магазина
• Как поднять позиции сайта
• Самостоятельное продвижение сайта для новичка
• Как найти плохие ссылки на сайт