Пример технического аудита сайта
Добрый день, дорогие друзья! Сегодня мы научимся проводить детальный технический аудит сайта на примере. Технический аудит подразумевает оценку сайта именно с технической стороны (поиск и исправление битых ссылок, поиск и удаление одинаковых тайтлов, страниц с большим временем отдачи и многое другое). Технический аудит – не менее важный этап, чем составление семантического ядра.
Во время продвижения сайта порой могут возникать досадные трудности, такие как вылетание страниц из индекса, неправильное определение поисковыми машинами релевантной страницы, наложение фильтров и многое другое. Чтобы минимизировать возможности возникновения таких проблем, необходимо основательно подготовиться к продвижению сайта еще на самых ранних этапах. Очень важен правильный технический аудит сайта. Данное мероприятие необходимо проводить перед продвижением любого сайта. Сегодня мы вместе с вами проведем подробный технический аудит одного из моих сайтов – EltisBOOK.
Технический аудит сайта: подготовительный этап
Для начала, давайте определимся с тем, что же нам понадобится для проведения аудита. А понадобятся нам всего 3 вещи:
- сам сайт
- программа Xenu (абсолютно бесплатная)
- Exel
Вот и все. Скачать программу xenu вы можете с моего блога по ссылке. Стоит сразу предупредить, что технический аудит сайта – невероятно важное мероприятие, поэтому вам придется быть очень внимательными во избежание возможности упустить важные технические моменты.
Технический аудит сайта: начальный этап
Сегодня мы сделаем технический аудит сайта на примерах. Первым делом, запускаем программу xenu и переходим во вкладку Options – > Preferences, где устанавливаем количество параллельных потоков равное 2м (parallel Threads), как это показано на изображении:
Далее переходим во вкладку File -> Check URL… и вводим адрес проверяемого сайта в соответствующее поле, как это показано на скриншоте:
Нажимаем OK и ждем. Время проверки будет зависеть только от самого сайта и количества страниц. Как правило, проверка занимает от 10-ти минут до нескольких часов. Процесс достаточно затяжной, но ничего страшного… Программа работает аналогично пауку поисковых систем – ищет все возможные документы и связи между ними. После завершения работы мы получаем достаточно подробный отчет, откуда совсем несложно идентифицировать битые ссылки, несуществующие документы и многое другое.
Итак, моя проверка уже прошла и было обнаружено около 200 неправильных переходов:
Ну тут все просто:
- Банально недоступный раздел сайта. Ссылка с Miralinks, поэтому оставим

- Нет связи с сервером. Тоже все просто.
- Неверная ссылка
- Неверное построение URL. Сайт работает без CMS, создавался на голом PHP. Проблема в построении ссылок в дримвивере. Исправляется за 2 минуты.
- Аналогично пункту 4
6. Таже самая проблема дримвивера. Необходимо просто указать абсолютные адреса.
7. Аналогично
8. Мой косяк. При вставке не убрал один слэш 
Все ошибки во внутренних ссылках, которые вы видите выше я исправил примерно за 20 минут. Идем дальше. Если смореть по списку ниже, то мы обнаружим список неисправных переходов, отсортированных по названию страницы. В этом списке я обнаружил один неверный переход. Все дело было в том, что в названии страницы был указан иной URL, нежели в самих ссылках, исправил за 10 сек. Далее программа выдает нам полностью готовый сайтмап:
Использовать эту карту сайта вы можете по своему усмотрению.
Разобраться в отчете совсем не сложно, а мы разобрали основные аспекты. Переходим к более важным вещам.
Технический аудит сайта пример
Теперь нам необходимо вытащить табличный отчет из программы xenu. Для этого нажимаем File -> Export to TAB separated file…
Называем его как хотим и выводим в формате txt. Открываем этот файл в Exel и в первом появившемся окне выбираем кодировку 1251, как на скриншоте:
Затем все время нажимаем далее, пока не появится надпись готово, на которую мы и жмем.
Перед нами появляется следующая картина. Подсвеченные поля удаляем:
Говоря проще, удаляем поля Status-Code, Date, Server, Duration и Charset. Сдвигаем ячейки таблицы в образовавшиеся пустоты и наша таблица принимает прилежный и наглядный вид.
Вся последующая работа состоит из нескольких этапов:
- отсеиваете все страницы по статусу и выясняете причины возникновения ошибочных статусов
- отсеиваете страницы по весу и стараетесь избавиться от файлов, имеющих очень большой вес
- отсеиваете страницы по Title и ищите одинаковые
- Отсеиваете страницы по уровню вложенности и выясняете причину высоких уровней (4 и более), по возможности стараетесь от них избавиться
- отсеиваете страницы по количеству исходящих ссылок. По возможносте стараетесь избежать чисел, превышающих 200 – 300
и т.д.
Следующим шагом мы попробуем идентифицировать некоторые проблемы сайта.
Проверяем ипроиндексированность сайта
На данном этапе мы попробуем определить проблемы с проиндексированностью страниц нашего сайта. Для начала, определим реальное количество страниц нашего сайта. Для этого, сортируем всю таблицу Exel по названию страниц. Когда страницы отсортировались, выделяем только страницы нашего домена и копируем 3 поля: Address, Status-Text и Type, в новую таблицу:
Отсортируем полученные результат по типу документа (третий столбец). И скопируем документы с типом text/html в новую таблицу. Все! Теперь мы знаем реальное число страниц проверяемого сайта. В моем случае, это число равно 307. Теперь, давайте проверим, сколько же страниц находится в индексе ПС:
Яндекс:
В поле поиска вводим оператор – site:www.eltisbook.ru
Вместо www.eltisbook.ru вставите адрес своего сайта. По версии Яндекса, у моего сайта в индексе 258 страниц – хороший результат.
Гугл:
В поле поиска вводим оператор – site:www.eltisbook.ru
Вместо www.eltisbook.ru вставите адрес своего сайта. По версии гугл, у моего сайта в индексе 309 страниц – хороший результат.
А теперь, давайте рассмотрим возможные ситуации, которые могут возникнуть при проверке проиндексированных страниц:
- В индексе ПС страниц больше, чем на самом деле (порой это число может быть в 10-ки раз больше, чем реальное число страниц) – самый худший вариант, которые говорит о том, что некоторые страницы ушли в дубль, что скорее всего, привело к санкциям ПС. Исправление данной ситуации достаточно долгое и проблемное занятие. Для начала, необходимо определить, какие именно страницы ушли в дубль. Для этого необходимо разбить сайт на кластеры по разделам, например раздел создание сайта, продвижение сайта и т.д. и еще раз провести проверку, но только внутри каждого отдельного кластера. Выглядеть это будет следующим образом:Я: www.eltisbook.ru/sait/
Г: www.eltisbook.ru/sait/
Обе ПС нашли по 14 страниц в заданном разделе. Реальное же число страниц в заданном разделе тоже составляет 14. Тоесть все отлично. Неспеша, постепенно, вы определите тот кластер, страницы которого ушли в дубль. Для интернет-магазинов это чаще всего бывают страницы товаров, категорий и страницы корзины. После того, как вы определите кластер, страницы которого ушли в дубль, необходимо закрыть их от индексации в роботс. Закрывать в роботс необходимо по маске.
- В индексе ПС объем страниц равен реальному числу. Идеальная ситуация, которая встречается крайне редко.
- В индексе ПС страниц меньше, чем их есть на самом деле. Если разница превышает 100% то это уже серьезные проблемы с индексацией сайта. Если разница не превышает 10%, то в принципе, не о чем беспокоиться, хотя можно просто добавить страницы, которые не в индексе в аддурилку и создать подробный сайтмап. Ну а если разница между реальным и проиндексированным числом страниц очень велика, то это скорее всего фильтры, наложенные поисковыми системами. Например, ПС может накладывать фильтр на страницы с одинаковым Title. Возможно, ваша проблема именно в этом?
Думаю, что руководство было достаточно подробным. Чтобы не пропустить ни одной новой статьи, просто . Если некоторые аспекты данного руководства показались вам не совсем понятными – задавайте свои вопросы в комментариях.