Проверить сайт на ошибки: проверка на технические ошибки и точки роста ᐈ
Содержание
🥇 Анализ сайта бесплатно — онлайн проверка SEO метрик, мониторинг изменений и позиций вашего сайта
Какую информацию я получу после анализа домена?
После того, как вы проведете анализ домена, вы ознакомитесь более чем с 80 показателями сайта и сможете:
- увидеть уровень ИКС Яндекса (ТИЦ), наличие Яндекс Знаков, фильтров, вирусов;
- узнать количество проиндексированных страниц в Яндекс и Google;
- отследить изменения посещаемости сайта, источники трафика, узнать географию аудитории;
- определить количество внешних ссылок и доменов;
- проверить поисковую оптимизацию сайта;
- оценить юзабилити, скорость сайта и мобильную версию;
- узнать IP адрес вашего сайта, хостера, возраст сайта;
- определить видимость сайта, список ключевых запросов и позиции в поисковых системах.
Проводится ли SEO проверка сайта?
Да, наш сервис позволяет обрабатывать и анализировать материал, размещенный на сайте. В результате вы получите сводку о релевантных заголовках на вашей странице, узнаете количество исходящих и входящих ссылок на ваш сайт, ошибки в заполнении метатегов и оценку качества текста. На основании SEO-анализа вы получите список сайтов, которые конкурируют с вами в одной нише. Стоит проанализировать своих конкурентов, чтобы увидеть их слабые и сильные стороны, и поработать над сайтом так, чтобы материал вашего сайта был лучше конкурентного.
Проверка сайта на ошибки. Гугл + бесплатный анализ сайта
Проверка сайта на ошибки
Проверка сайта на ошибки. Гугл + бесплатный анализ сайта
Приветствуем уважаемые клиенты и посетители. У любого владельца сайта, рано или поздно возникает задача: «Проверка сайта на ошибки».
Причин для проверки много — Владелец сайта хочет проверить веб-студию, которая создала сайт под ключ, или это проверка перед началом продвижения веб сайта или даже перед продажей, чтобы сайт стоил дороже.
В сегодняшней статье подробно разберем эту тему и конечно ответим на вопрос — по каким параметрам проверять сайт и что дает исправление ошибок.
А для чего проверять сайт?
Задача проверки сайта (аудит веб сайта) очень важная, так как позволяет найти ошибки самого различного рода:
- технические ошибки — например устаревшая библиотека или ошибка в коде;
- ошибки безопасности — если сайт работает через https протокол и пользователь в публикации поставил ссылку на картинку http сайта;
- ошибки внешнего вида — на мобильном экране меню отображается не корректно, либо картинки наезжают на текст;
- функциональные ошибки — банально не работающая форма обратной связи, что бывает очень часто;
- SEO (поисковое продвижение) ошибки — например дубли содержимого.
Это лишь малая часть самых частых ошибок, их гораздо больше и зачастую они связаны друг с другом, так техническая ошибка (ошибка загрузки скрипта) может привести к визуальной (внешний вид) ошибке — некорректному отображению содержимого и в итоге повлиять на SEO показатель сайта — высокий показатель отказов.
В большинстве случаев аудит сайта (проверку сайта) делают для подготовки поискового продвижения, но многим владельцам новых сайтов интересно узнать:
«А насколько же мой сайт хорош, есть ли ошибки, все ли выполнили разработчики?»
Сколько стоит сайт проверить
Веб-студия «Filandor» предоставляем разные варианты проверки сайта, выбирайте подходящий вам вариант:
- Экспресс проверка сайта — БЕСПЛАТНО (бесплатный анализ сайта).
- Оптимальная проверка сайта — 10$.
- Максимальная проверка сайта — 50$.
Как проверить сайт на ошибки в коде HTML и CSS
Существует такое понятие, как валидация или валидность кода. Валидация — это процесс тестирования кода на отсутствие ошибок. Код, который не содержит ошибок, называется валидным. Даже неправильно говорить «не имеет ошибок», скорее верно будет сказать «код, который не противоречит текущим стандартам W3C». Проверить HTML на ошибки можно с помощью сервиса:
validator.w3.org
Проверить CSS на ошибки можно при помощи сервиса:
jigsaw.w3.org/css-validator/
При осуществлении вёрстки каждому вебмастеру приходит в голову проверить свой сайт на правильность кода, валидность. Но большинство сайтов (даже самых популярных), если проверить их код на валидность, содержат ошибки. Давайте разберемся, с чем это связано.
Очень часто понятия «валидный сайт» и «правильный сайт» различны. В большинстве случаев можно использовать код, который будет способствовать правильному отображению сайта во всех браузерах, но тем не менее, он не будет валидным.
Валидность и SEO
Большое влияние на поисковое продвижение сайта оказывает валидность кода. Существует информация, что поисковые системы ранжируют невалидные сайты ниже, чем абсолютно валидные. Кроме того, невалидность подразумевает неправильное отображение сайта в различных браузерах, что будет отпугивать посетителей, а значит скажется на показателе отказов и поведенческих факторах и, как следствие, может привести к потере позиций сайта в поиске. Валидность сайта — один из показателей его качества.
Правильно-невалидный код
Но, как уже отмечалось выше, бывает правильный невалидный код. Ярким примером этого являются CSS-хаки (т.е. такие свойства, которые меняют отображение нужного элемента в различных браузерах). Они очень часто являются невалидными. Конечно, можно отказаться от использования таких хаков, но, как правило, валидный код будет значительно длиннее и сложнее, поэтому в таких случаях оптимальнее выбрать использование хаков, вместо погони за валидностью. Как правило, такой код не приносит вреда и обнаруживается только при проверке с помощью валидатора.
SEO анализ сайта и полная проверка отдельных страницы
Сервис SiteChecker.pro от компании Boosta предлагает качественную SEO проверку как отдельной страницы так и анализ сайта целиком. Сервис условно-бесплатный: в бесплатном режиме доступно довольно много. В этой заметке я расскажу о своем знакомстве с SiteChecker.pro. Мне удалось исправить кучу ошибок на этом сайте, уверен и вам удастся найти и поправить SEO ошибки на ваших.
Начать знакомство с сервисом предлагаю с ознакомительного видео о нем:
Коротко о возможностях сервиса (анализ сайта)
Сервис состоит из трех основных частей:
- Проверка отдельного URL: https://sitechecker.pro/ru/
- Проверка всех страниц сайта: https://sitechecker.pro/ru/website-crawler/
- Мониторинг изменений на сайте: в разработке.
SEO Проверка отдельного URL
Я не сразу понял насколько анализ крут, а когда понял, был немного удивлен, как я сразу этого не заметил… Пройдусь по пунктам:
- Во-первых, это бесплатно — безлимитное количество бесплатных проверок одного URL.
Во-вторых, в анализ страницы входят около 150 пунктов для проверки (чек-лист). Всевозможные проверки собраны на одной странице. Туда входит даже результат проверки страницы от Google Page Speed и Yandex: тут все, начиная от скорости загрузки страницы, заканчивая тем, какие картинки нужно оптимизировать, скрипты переместить, заголовки и метатеги создать/исправить и что улучшить для мобильных устройств.
Проверка title, description, h2-H6 теговКартинки с большим весом, без атрибутов alt, titleОшибки в техническом SEOПоказатель Google юзабилити и скорости в десктопной и мобильной версиях
В-третьих, описание для каждого пункта. Для каждой ошибки есть рекомендации по её устранинию, т.е. не получится так, что вы будите смотреть на ошибку и думать «кто виноват и что делать»…
- В-четвертых, быстро и динамично. Анализ страницы занимает несколько секунд (10-20), а результаты начинают отображаться сходу!
Чтобы ощутить всю мощь анализа, прямо сейчас перейдите на главную страницу сервиса: https://sitechecker.pro/ru/ , введите URL любой страницы вашего сайта и немного вникните что рекомендуется исправить.
SEO Проверка всех страниц сайта (краулер)
Инструмент Sitechecker Crawler (робот собирает данные по всему сайту) позволяет:
- Проверить анкоры внешних и внутренних ссылок на всем сайте.
- Найти битые ссылки (404 и другие).
- Аудит редиректов (301 и других).
- Общий анализ ссылок на всем сайте (робот ходит по вашему сайту и собирает все ссылки которые видит, а там может попадаться много нужного и ненужного).
- Проверить статус ответа каждой страницы.
- Наглядно увидеть как распределяется ссылочный вес на сайте.
- Найти дубликаты тегов и метатегов.
- Есть возможность делится результатами краулинга, например, с подрядчиками. Это поможет делегировать работу.
- и т.д.
Замечу, что исправление SEO ошибок — это задача ваша, а не сервиса. Сервис лишь дает вам общее представление и указывает на возможные ошибки. Результаты анализа сайта нужно внимательно просматривать и порой часами сидеть и исправлять ошибки… Все это может быть непросто.
Расценки
Бесплатно:
- Безлимитная проверка одного УРЛа.
- 100 УРЛов для робота (краулинга) (один раз, чтобы оценить инструмент).
Платно:
Что я исправил на этом сайте с помощью SiteChecker.pro
Я не SEO спец и зачастую игнорирую многое из того, что рекомендуют подобные сервисы. Почти уверен, что грамотный СЕОшник найдет не мало ошибок на этом сайте. Моя «SEO религия» — это качественный контент остальное делается без энтузиазма. Замечания вроде: «Content to code < 10%» (на странице очень много кода и мало контента) я почему-то не вижу в упор… Мне еще верится, что поисковики отлично умеют анализировать HTML код и вырезать все лишнее обращая внимание только на контент и метатеги.
Полная проверка этого сайта (краулер) заняла 50 минут (это примерно 25 000 страниц). Так выглядит результат первой проверки сайта целиком:
В результате проверки мне удалось найти и исправить много мелких ошибок, например:
Ссылки с 301 редиректом (в том числе сквозные). Удалось исправить около 1000 таких ссылок, необходимости в которых не было. Например: URL был указан с протоколом http (в некоторых статьях были ссылки вида /?p=465). Или ссылки на комментарии которые перекидывали через 301 редирект куда нужно. 90% из эти редиректов совершенно ненужны и исправляются довольно просто.
Битые ссылки (со статусом 404). Таких ссылок на удивление оказалось много (около 40) и почти все — это ошибки (опечатки) или старые ссылки в контенте.
Метатег description. На некоторых важных страницах не было этого тега, также поправил.
Укоротил URL. С точки зрения сервиса URL длиннее чем 115 символов нехорошо сказываются на SEO. Исправил!
Несколько h2 на странице. Из-за markdown разметки в некоторых комментариях появились h2 заголовки, а это очень плохо для SEO. Сервис помог найти и исправить все такие страницы (11шт)! В дополнении доработал код сайта: добавил проверку при публикации коммента, теперь невозможно оставить коммент с тегами h2 и т.д.
Canonical ≠ URL — на некоторых страницах метатег canonical не должен был быть равен URL. Например, на странице кода любого файла. Такое может случиться, например, когда мы создали постоянную страницу и на ней через параметры запроса или как-то еще показываем разный контент, который должен индексироваться отдельно. Но WordPress в таком случае, будет показывать один и тот же canonical для, по факту, разных страниц.
- Поправил некоторые моменты из анализа отдельных страниц. Вообще, хорошо бы еще посидеть поисправлять.
Это основные моменты, которые я без особых сложностей исправил. Могу предположить, насколько более эффективно этот сервис могут использовать SEO специалисты.
Также хочу отметить показатель вес страниц: очень удобно, что при просмотре показателей страниц они сортируются по внутреннему весу. Так, самые важные страницы всегда наверху и если с ними что-то не так, это будет заметно в первую очередь! Также, благодаря показателю веса легко можно увидеть какие ненужные для SEO оптимизации страницы собирают большой вес и более грамотно его перераспределить.
В заключении о SEO и сервисе sitechecker.pro
Для новичков в SEO, будет интересна база SEO знаний — это статьи по основным моментам в SEO ориентированные на начинающих оптимизаторов. Например статья про разметку schema.org с примерами внедрения такой разметки. Рекомендую ознакомится со статьями из этой базы, они легко читаются!
Создатели проекта, обещают в самом ближайшее время разные обновления: дизайн, функции и т.д. Например, мониторинг изменений статус кодов на странице, добавление/удаление страниц, улучшение фильтров.
Я также внес свою лепту в развитие проекта, дав несколько рекомендаций по улучшению юзабилити. Меня приятно удивило, что пару из своих рекомендаций я увидел уже на следующий день, т.е. создатели проекта активно развивают сервис, а это значит что завтра он обязательно будет лучше чем сегодня.
—
Ну, и конечно, посмотрите видео обзор сервиса по SEO анализу сайта sitecheker.pro:
—
Полезные ссылки:
Статьи до этого: SEO
Бесплатный анализ сайтов онлайн и аудит seo
Бесплатный анализ сайтов онлайн и аудит seo — SiteDozor
Проверено SiteDozor: новые аудиты
Другие пользователи недавно сделали аудит
Новые аудиты сайтов
Веб-сайт | Дата аудита | Отчет | |
---|---|---|---|
1 | krasotka-market.ru/ | 2021-10-13 09:18:17 | Отчет |
2 | implant-expert.ru/ | 2021-10-13 08:11:34 | Отчет |
3 | bromptonlab.ru | 2021-10-13 07:48:14 | Отчет |
4 | cryptovotes.shop/ | 2021-10-13 05:33:54 | Отчет |
5 | vekautocar.ru/ | 2021-10-13 05:07:39 | Отчет |
6 | doverie-svoboda.ru | 2021-10-13 02:34:32 | Отчет |
7 | tawk.to/ | 2021-10-13 01:36:14 | Отчет |
8 | ic-kaluga.ru/ | 2021-10-13 01:11:35 | Отчет |
9 | f0588286.xsph.ru | 2021-10-12 23:19:43 | Отчет |
10 | isnovaprazdnik.ru/ | 2021-10-12 23:03:21 | Отчет |
11 | minpol.ru | 2021-10-12 22:57:57 | Отчет |
12 | xn--80abidqjfxvx.com.ua | 2021-10-12 22:56:43 | Отчет |
13 | xn--90acau6ackhj2gf.xn--p1ai/ | 2021-10-12 22:34:48 | Отчет |
14 | utkstroy.ru | 2021-10-12 22:29:43 | Отчет |
15 | fitili.ru | 2021-10-12 21:48:16 | Отчет |
Недавно сравнивали сайты
Сайты в сравнении | Дата сравнения | Отчет | |
---|---|---|---|
1 | devmobapp.com vs asea4you.ru/ | 2021-10-09 10:15:43 | Отчет |
2 | pavon.ge vs lisandra.me/ | 2021-10-07 13:10:49 | Отчет |
3 | 3uzla.ru/ vs moskva.lodki-pvh.com | 2021-09-28 00:18:28 | Отчет |
4 | horeca.uno vs restoll.ru | 2021-09-21 15:37:16 | Отчет |
5 | efran-eliyev.gq vs efran-eliyev.blogspot.com | 2021-09-21 14:30:35 | Отчет |
6 | mebelpartner48.ru vs mebelpartner48.ru/ | 2021-09-13 12:10:48 | Отчет |
7 | mebelpartner48.ru vs dommebeli48.ru/ | 2021-09-13 12:09:19 | Отчет |
8 | mebelpartner48.ru vs mebelpartner48.ru | 2021-09-13 12:07:32 | Отчет |
9 | seo-24.net vs seo-24.net/ | 2021-09-06 07:25:00 | Отчет |
10 | mera-tek.ru vs vit1.ru | 2021-08-16 14:55:34 | Отчет |
11 | club4x4.ru vs ichina-group.com/ | 2021-08-12 19:05:21 | Отчет |
12 | kedroshop.ru vs stroitochka.ru | 2021-08-10 19:45:11 | Отчет |
13 | alinis.by vs dartaygi.ru | 2021-08-09 16:17:08 | Отчет |
14 | ladyklub.ru/ vs smartwomens.ru/ | 2021-08-08 17:19:37 | Отчет |
15 | ladyklub.ru/ vs marieclaire.ru/ | 2021-08-08 17:18:12 | Отчет |
Как проанализировать сайт
Добавьте адрес Вашего сайта в поле проверки. Нажмите «Проверить сайт» и уже через несколько секунд отчет по Вашему сайту будет готов. Вы сможете получить отчет с результатами анализа в удобном pdf-формате.
Популярные вопросы
Это бесплатный аудит?
Да. Анализ сайта онлайн — бесплатный инструмент проверки веб-сайта на ошибки.
Как исправить ошибки сайта и seo?
Напишите нам на email [email protected]. Мы проанализируем дополнительно Ваш сайт и сможем дать рекомендации как лучше их исправить.
Я ничего не понимаю в SEO. Вы можете помочь с сео-оптимизацией сайта?
Всегда готовы Вам помочь. Напишите нам на [email protected]. Эксперты и специалисты проанализируют дополнительно Ваш сайт и исправят ошибки, выявленные в результатам анализа. Больше информации о возможностях комплексного продвижения сайта и seo-оптимизации на apriorum.com
Контакты
Есть вопросы? Мы рады ответить на Ваши вопросы. Напишите и мы ответим Вам максимально быстро.
Как проверить сайт на наличие ошибок? – semantica.in
Есть проблемы с ранжированием, проект не растет, хотите проверить работу своих специалистов по продвижению? Закажите профессиональный аудит в Семантике
Получи нашу книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».
Подпишись на рассылку и получи книгу в подарок!
Сегодня разбираемся, как проверить сайт на ошибки в html-коде, внутренней SEO-оптимизации и текстах. Поэтому достаем ручки, отступаем две строчки и на третьей пишем «Работа над ошибками». Двойки и тройки надо исправлять, особенно если они не в дневнике, а в базе Google и «Яндекса».
Сервисы онлайн-проверки html кода
Такие инструменты называют валидаторами. Они помогают находить ошибки и неточности в коде сайта. Например, указывают на неправильный атрибут в теге или ошибочное применение элемента. Все сервисы-валидаторы работают примерно одинаково и выглядят как пришельцы из web 1.0, поэтому с их выбором можно не заморачиваться – проверку сайта на ошибки можно выполнить в любом. Разница либо будет минимальной, либо ее не будет вообще. Вот те, которые понравились лично мне.
W3C Nu HTML Checker
Сервис с минималистичным интерфейсом, и стандартным функционалом. Делает все, что должен делать и ничего больше. С HTML5 работает в тестовом режиме, поэтому может чего-то не понимать, о чем разработчики честно предупреждают.
На том же W3C есть сервис проверки CSS, называется Jigsaw. Там можно выбрать профиль CSS, тип отчета и еще пару параметров.
Проверка SEO сайта
Здесь все интереснее и запутаннее – сервисов много, все делают примерно одно и то же. Программы, достойные внимания, стоят денег, а остальные либо условно-бесплатны, либо предлагают минимальный функционал. И даже среди платных находится что-то неудобоваримое, которое попадает в очередную подборку просто чтобы в заголовке было не «9», а «10». Поэтому обратим внимание на проверенные и классные инструменты
Screaming Frog SEO Spider
Мощно, дорого и красиво. Делает подробный анализ сайта: показывает метатеги к каждой странице и количество ссылок, помогает проверить внутреннюю SEO-оптимизацию сайта на ошибки и выдает еще кучу информации для анализа. Помимо этого ищет битые ссылки и дубли контента, интегрируется с Google Analytics, экспортирует отчеты в Excel и чего только не делает. Примерно половина функций доступна в бесплатной версии, но за полную придется выложить аж 149 фунтов стерлингов в год.
NetPeak Spider
Еще один хороший и такой же платный инструмент. Анализирует сайт и делает проверку страниц на ошибки во внутренней SEO-оптимизации. Как и Screaming Forg, помогает находить битые ссылки, дублированный контент, ошибки в метатегах и так далее. Плюс ко всему NetPeak Spider считает PageRank страницы и доступен для покупки на один, три, шесть или 12 месяцев. Еще есть 14-дневный бесплатный пробный период, в который с программой можно делать что угодно.
Smart SEO Tool
Бесплатная утилита для проверки сайта на внутреннюю SEO-оптимизацию. Делает почти то же самое, что и остальные, но при этом не просит купить себя. Функций не так много, как в платных программах, но джентльменский набор из поиска ошибок в метатегах, битых ссылок и дубликатов в Smart SEO Tool есть.
Плюс ко всему нужно обязательно проверить на ошибки карту сайта и файл robots.txt. Сделать это можно либо в Вебмастере «Яндекса» и Search Console «Гугла», либо в любом из перечисленных сервисов.
Проверка сайта на орфографические ошибки и уникальность контента
Код страницы мы уже почистили, оптимизацию тоже привели в порядок, осталось только проверить уникальность текста на сайте и убрать ошибки. Этим и займемся.
Orfogrammka.ru
Помогает очистить текст от грамматических, орфографических, пунктуационных и других ошибок. Уникальность здесь не проверить и тексты придется загружать по одному, но в остальном сервис шикарен, сам пользуюсь и люблю. Каждая найденная ошибка сопровождается ссылка на правило и совет, как ее поправить. Дополнительно можно проверить красоту текста, но там все очень субьективно. Главный минус – удовольствие стоит денег.
Content-watch.ru
Платный сервис проверки уникальности и защиты от плагиата. Можно сделать проверку одной страницы или всего сайта целиком и это его главный плюс. Больше Content-Watch не делает ничего, а жаль.
Etxt.ru
Это биржа копирайтинга, у которой тоже есть свои сервисы проверки орфографии и уникальности. Минус в том, что они платные и не доступны без регистрации.
Бесплатные альтернативы есть – это text.ru и инструменты Advego. Алгоритмы проверки уникальности у них ОК, но с ошибками они не особо помогают – могут найти орфографическую ошибку или неправильно поставленную запятую, и то не всегда. Еще орфографию можно проверить в «Яндекс.Вебмастере».
Онлайн-сервисов анализа сайта на ошибки много, все они хорошие, красивые и классные. Проблема в том, что почти все они платные и если HTML-код можно проверить без проблем, то за проверку внутренней оптимизации страницы или уникальности текстов придется заплатить своими кровными. Бесплатные альтернативы «Кричащим лягушкам» и «Паукам» есть, но и функций у них не так много, поэтому пригодны они, в основном, для быстрого анализа ключевых параметров страницы. Если работать с сайтом нужно много, постоянно и страстно, придется раскошелиться.
Аудит сайта — 20 проверок на ошибки, которые решают все
То как оформлен контент, во что он завернут, как подается и как все это выглядит с точки зрения поисковых систем — очень важно. Это не даст вам какую-то немыслимую фору относительно конкурентов (при условии, что они аудит сайта проводят регулярно), но позволит встать с ними на одну ступень (сравняться с голодными).
SEO сейчас включает в себя целый ряд факторов разной степени важности (об этом еще отдельно поговорим). Например, для Яндекса на первом месте тексты, а для Гугла по-прежнему в приоритете ссылки (без них рост трафика маловероятен). Но если на сайте имеются ошибки технического или структурного типа, хромает юзабилити и тянет вниз поведенческие факторы, то добра от этого не жди.
Сайтам, продвигающимся по коммерческим запросам следуете в аудит добавлять еще и инвентаризацию наличия всех коммерческих факторов (а их немало), без которых сейчас в этой области вообще делать нечего. В общем, много за чем нужно следить, а вот за чем именно будет детально рассмотрено ниже по тексту. На самом деле — все очень и очень просто.
С чего начать аудит сайта?
Сначала пару слов о том, кому и зачем это может быть нужно. Если говорить коротко, то всем у кого есть сайты и кто хочет, чтобы росту их популярности (посещаемости) ничто не мешало. Это может быть только что созданный сайт или проект, который существует давно.
Аудит показан и одностраничникам и монстрам в миллионы страниц (последние, кстати, отдачу от проверки почувствуют в большей мере). Аудит нужен всем. Другое дело, что проводить его могут профи с приличными ценниками, а можете сделать и вы сами, сформировав в конце список задач для вашего программиста (если такового нет, то биржи фрилансеров ждут ваших предложений с нетерпением).
В принципе, ничего сложного в этом нет. Посидите часок-другой за компьютером, составите по моим лекалам задания на доработку, поищите на биржах исполнителей (правда, это не так просто, ибо там много посредников) и все. При желании можете и сами все это править, но тут уже парой часов не обойдетесь, хотя я ссылочки все же оставлю для особо пытливых умов.
В принципе, с чего начинать аудит не так уж и важно, ибо все пункты чек-листа необходимо выполнить, а уже в каком порядке роли не играет. Отсутствие на сайте ошибок, мешающих продвижению — это комплексная величина и она достигается только комплексной и всеобъемлющей проверкой. Поехали.
Стоп, еще пару слов отступления надо сказать. Дело в том, что есть сайты, которые продвигаются только по информационным запросам (мой блог тому яркий пример). Им по жизни проще, ибо конкуренция в выдаче не столь высока и поисковики некоторые огрехи прощают, а на что-то вообще внимания не обращают.
Но есть сайты, на которых продвигаются еще и (или в основном) коммерческие запросы, а вот тут в выдаче идет настоящая рубка. Для таких сайтов продвижение — это хождение по минному полю. Здесь важно все: и объемы текста, и вхождение ключей, и расположение элементов сайта, и структура разделов и так называемые коммерческие факторы (телефон нужного формата, контакты как у других и т.п.).
Зачем я это говорю? А затем, что аудит будет универсальный, подходящий для коммерческих и информационных сайтов. Если запросы, продвигаемые на вашем сайте информационные, то вы просто опустите те пункты, которые необходимы для продвижения запросов коммерческих. Для вас это будет лишнее. Ну а продающим сайтам нужно будет проходить все пункты этого чек-листа неукоснительно.
Вот, а теперь уж точно поехали…
Проверка кроссбраузерности сайта
Как вы понимаете, пользователи на ваш сайт могут заходить с совершенно разных обозревателей (только основных браузеров вот сколько). К тому же сейчас очень большая доля трафика идет с мобильных устройств (уже более половины от всего потока посетителей). Естественно, что вам нужно точно знать, что с отображением вашего сайта в этих браузерах тоже все в порядке.
Как это проверить? Ну, можно скачать себе Хром, Мазилу, Оперу, Яндекс Браузер, Сафари, IE и другие. Смотреть в них нужно не только отображение главной страницы, но и другие показательные для вашего сайта страницы (со статьями, с карточками товара, с листингом товара, с контактами). То же самое и для браузеров на популярных мобильных устройствах (Андроиде и iOs).
Есть и более универсальный вариант — онлайн-сервис BrowserShots. Он бесплатный, но вполне себе функциональный. Поддерживает большое число браузеров, а на выходе выдает скриншоты вашего сайта сделанные в выбранных вами обозревателях. Работает не быстро, но вполне сносно.
Если что-то где-то пойдет не так (поедет дизайн, не подключатся стили, что-то перекосится), то пишите первым пунктом в задание программисту: добиться правильного отображения сайта в таких-то браузерах.
Валидация Html и CSS
Этот этап аудита чем-то сродни предыдущему. Валидация (что это вообще такое?) кода и CSS стилей нужна не сама по себе (для галочки), а именно для того, чтобы избежать возможных проблем с отображением сайта, которые зачастую визуальными методами выявить бывает совсем непросто.
Тем более что мудрить тут особо не нужно. Есть официальные валидаторы от консорциума W3C (он отвечает за формирование стандартов современно языка разметки), в которые просто нужно будет добавить адрес страницы вашего сайта:
- Валидатор HTML кода
- Валидатор CSS кода
Опять же, вы должны понимать, что через валидаторы нужно прогонять не только главную страницу, но и другие «показательные». Например, страницы со статьями, страницы с товарами, со списком товаров (или статей) и т.д. На каждой из них могут быть свои ошибки и замечания.
Что делать с найденными ошибками? Ну, не паниковать, это точно. Если сами понимаете где нужно поправить, то в путь. Но зачастую для исправления ошибок в коде разметки придется копать глубоко и лезть в код движка или плагинов (расширений). В этом случае даете задание программисту: убрать по возможности все ошибки, выдаваемые валидаторами для «показательных» страниц вашего сайта.
Проверка адаптивности сайта
Как я уже говорил, более половины трафика в рунете уже идет с мобильных устройств. Поэтому хотим мы этого или не хотим, но наши сайты должны уметь «красиво сжиматься» (адаптироваться) к экранам гаджетов с низким разрешением. В противном случае вы просто убьете на корню поведенческие факторы вашего замечательного сайта, которому для показа на экране мобильника потребует горизонтальная прокрутка.
Какими же способами на этом этапе аудита выявить проблему или убедиться, что ее нет? В принципе, вы можете просто открыть ваш сайт на своем мобильнике и все увидеть воочию. Или еще проще — прямо на компьютере уменьшайте размер окна браузера схватив его мышью за угол. Появляется горизонтальная прокрутка? Картинки вписываются в новые размеры?
Если вы сузили экран в десятки раз, а текст, картинки, кнопки и прочее оформление успешно адаптируется к такому размеру (перестраивается), то это уже замечательно. Но даже если там вам покажется все хорошо — это еще не значит, что все будет хорошо и для поисковых систем. Лучше подстраховаться и посмотреть на сайт глазами поисковых систем.
У Гугла есть специальный тест, проверяющий оптимизацию любого сайта под мобильные устройства:
Тут тоже лучше будет проверить все «показательные» страницы, чтобы убедиться в полном отсутствии проблем с адаптивностью на всем вашем сайте.
У Яндекса тоже есть подобный инструмент, но доступен он только из панели для вебмастеровна вкладке «Инструменты» — «Проверка мобильных страниц»:
Что делать, если ваш сайт в ходе аудита не прошел тест на адаптивность? Не паниковать, но брать ноги в руки и искать решение. Лично я сделал свой сайт адаптивным самостоятельнои даже подробно описал сей процесс.
Но это вовсе не обязательно делать самому. Адаптация под мобильные устройства не такая уж и сложная задача для программиста (верстальщика), так что просто добавьте еще один пункт в свое техзадание сформулированное по результатам этого аудита. Я бы рекомендовал делать именно адаптацию, а не отдельную мобильную версию сайта.
Аудит микроразметки
Микроразметка — это необходимый атрибут оптимизации сайта при продвижении по коммерческим запросам. Размечаются карточки товаров, контакты, телефоны и все такое прочее. Она скрыта от глаз обычных пользователей и добавляется программно в Html-код в виде дополнительных атрибутов.
Зачем она нужна? Ну, чтобы поисковики четко и безошибочно понимали, что тут что. Микроразметкой вы буквально тыкаете пальцем поисковику — вот цена, а вот фотография товара, а вот контакты продавца, а вот его телефон.
Зачем это нужно поисковым системам? Ну, как же, по этим признакам они оценивают коммерческие факторы сайта (об этом будет отдельная статья) и решают — брать его в «обойму» доверенных продавцов или это фуфел (дорвей, например) маскирующийся под коммерческий сайт.
Данные из микроразметки могут попадать в сниппет (описание вашего сайта в выдаче поисковиков) и быть дополнительным привлекающим элементом. В общем, для коммерческих сайтов микроразметка обязательна, но далеко не факт, что она у вас выполнена безошибочно.
Как проверить микроразметку? Опять же довольно просто ибо и в Гугле, и в Яндексе для этой цели предусмотрены валидаторы микроразметки:
- Проверка микроразметки на ошибки в Яндексе
- Проверка структурированных данных в Гугле
Аудит вашего сайта по этому пункту чек-листа будет заключаться лишь в подстановке Урлов страниц, где требуется проверить микроразметку на ошибки.
Главное тут, как мне кажется, это страница с контактами. Обязательно должны быть размечены название компании, почтовый адрес, индекс, контактный телефон, факс, электронная почта. Если там чего-то не хватаете или есть ошибки в микроразметке, то КФ (коммерческие факторы) вашего сайта могут быть занижены Яндексом со всеми вытекающими.
Проверка кодировки
Браузеры сейчас очень умные и умеют автоматически различать кодировки русского языка, коих очень много. Но самым верным вариантом будет указать тип используемой кодировкив самом начале Html кода всех страниц сайта. Так вы на 100% защититесь от кракозябров (нечитаемых символов, отображаемых вместо букв русского языка).
Аудит по этому пункту чек-листа будет довольно простым. Открываете любую страницу сайта в любом браузере и кликаете по пустому месту на странице правой кнопкой мыши. Выбираете из контекстного меню пункт вида «Посмотреть код страницы» (либо нажмите Ctrl+U на клавиатуре) и в открывшемся окне ищите в самом верху сразу после директивы DOCTYPEконструкцию (называется метатег) задающую кодировку:
У меня в коде это именно так и выглядит:
Вместо UTF-8 у вас может стоять windows-1251 — не суть важно, хотя все же юникод (UTF) сейчас считается признанным стандартом (для нового сайта лучшие его использовать).
Если такой строки в исходном коде страниц вы не нашли (можно воспользоваться поиском по странице «Ctrl»+F), то нужно будет его туда добавить. В большинстве используемых движков сделать это совсем несложно. В Вордпресс, например, этот код можно дописать в файл header.php из папки с используемой вами темой оформления. Ну а для программиста — это вообще минутное дело (просто добавьте это в составляемое по результатам аудита ТЗ).
Аудит скорости загрузки сайта
Скорость загрузки страниц уже давно стала фактором, влияющим на продвижение сайта. Особенно это актуально сейчас, когда большая часть трафика идет с сотовых телефонов, а мобильный интернет ведь далеко не всегда «хорошо ловит». А посему именно у мобильных пользователей косяки в настройках сайта выливаются в очень долгую загрузку страниц.
Реально более 4 секунд ждать никто не будет. Поисковики это дело фиксируют и принимают меры. Но сначала проблему надо диагностировать.
Понятно, что вы может измерить скорость загрузки сайта десятком различных способов вплоть до того, что называется «на глазок», открывая новые страницы сайта в браузере, где вы его еще не открывали до этого или после того, как почистили кеш браузера. Но это все не то, ибо требуется взглянуть на проблему со стороны поисковиков.
В этом плане отличным инструментом аудита может послужить сервис Гугла по оценке скорости загрузки сайта под названием PageSpeed Insights:
Как и ранее не устаю повторять — проверять нужно не только главную страницу, но и все другие «показательные» (созданные по разным шаблонам) страницы. Результаты теста должны быть хотя бы хорошими, а в идеале — отличными. Я шел к таким результатам лет пять, наверное. Так долго, что теперь уже и радости никакой нет от достижения отличного результата.
Но вы, естественно, не обязаны сами мучиться над повышением скорости работы сайта, ибо это реально сложное дело требующее познаний не только в программировании, но и в тонкой настойке веб-сервера. Просто добавьте в ваше ТЗ программисту пункт о том, что такой-то перечень страниц должен выдавать при их аудите в PageSpeed Insights отличный или хотя бы хороший результат.
Проверка фавикона
Фавикону уже много лет и тот формат, в котором он изначально задавался (ico) уже давно морально устарел (его полностью вытеснил PNG). Однако favicon.ico живее всех живых.
На большинстве сайтов для этой цели используется графический файл-иконка, сохраненная именно в устаревшем формате ico. Размер его обычно равен 16 на 16 пикселей (у меня именно так), но можно сделать и больше (32 на 32, например, использует Авито). Яндекс же для этой цели использует файл в формате png размера 64 на 64. У Гула ico размера 32 на 32. В общем, кто в лес, кто по дрова.
Что такое фавикон, как его создать и как подключить я уже довольно подробно писал. Если кратко, то он отображается в выдаче Яндекса рядом с названием вашего сайта и на вкладкахзакладках браузера. Задать его можно просто добавив строку кода туда же, где мы только что кодировку смотрели:
У Яндекса это выглядит чуть по-другому (но он может, по идее, нарушать все мыслимые правила):
Но это не все. Вы еще не слышали про Apple Touch Icon? Нет? Я вот тоже недавно об этом услышал. И знаете в чем тут дело? Это оказывается специальная иконка, которая будет отображаться на мобильном устройстве, если ваш сайт вытянули на «хом скрин» (аналог рабочего стола в iOs).
Проблема еще и в том, что на разных устройствах от Эпл этот файлик требуется разного размера (от 57 на 57 пикселей до 180 на 180). Кроме iOs иконки формата «Apple Touch Icon» несмотря на название поддерживают и устройства на Андроиде. Какие там размеры нужны вообще непонятно.
На официальной странице для Эпл-разработчиков на данный момент предлагается два варианта указания мест хранения Apple Touch Icon — задать общую для всех иконку или несколько для каждого размера. Мне второй вариант кажется слишком громоздким (четыре записи добавлять), поэтому я выбрал первый вариант с указанием пути до иконки (она должна быть в формате PNG) размером 180 на 180 пискселей:
Если ничего из вышесказанного про фавикон и Apple Touch Icon вы не поняли, а в исходном коде сайта (Ctrl+U) поиском по странице (Ctrl+F) ничего подобного («shortcut icon» и «apple-touch-icon») не нашли, то просто скопируйте этот текст вашему программисту и скажите ему: «чтоб было».
Аудит карты сайта в формате sitemap.xml
Поисковые системы безусловно умнеют из года в год, но тем не менее нелишним будет им однозначно «показать пальцем» на те страницы вашего сайта, которые необходимо проиндексировать. Для этого предусмотрен файл так называемой карты сайта, который обычно называют sitemap.xml и размещают в корне сайта (именно там его в первую очередь будут искать боты Яндекса и Гугла).
Файл sitemap.xml в идеале должен обновляться с появлением новых страниц на сайте (в указанной чуть выше статье я упоминал про плагин для Вордпресс, который оперативно создает карту блога). В этом файле должны содержаться страницы, которые подлежат индексации поисковыми системами.
Могу поделиться с вами несколькими лайфхаками по sitemap.xml, которые можно использовать:
- Не стоит тупо помещать sitemap.xml в корень сайта и указывать путь до него в файле роботс.тхт (о нем мы еще ниже поговорим). Почему? Ну, зачем упрощать жизнь тем, кто ворует ваш контент (а такие всегда найдутся).
Лучше спрятать этот файл поглубже и назвать по-другому (jfhfhdk.xtml, например). После этого просто идете в панель Гугла и Яндекс Вебмастер, чтобы указать там путь до этого файла. Все. Поисковики в курсе, а остальные пусть утрутся.
- Если у вас огромный сайт с большим числом страниц и большой их вложенностью, то, наверняка, имеются проблемы с его индексацией. Есть масса способов как загнать страницу в индекс (все те же IndexGator или GetBot) и удержать ее там (сквозной блок со случайным списком страниц), но можно и sitemap.xml для этой цели использовать.
Дайте задание вашему программисту, чтобы в файл карты сайта добавлялись только страницы, на данный момент не попавшие в индекс или выпавшие из него. Это ускорит доступ к ним ботов поисковиков, ибо они не будут отвлекаться на уже проиндексированные странички.
В общем, данный этап аудита заключает в том, чтобы убедиться в наличии на сайте в любой момент времени актуального файла карты всех страниц подлежащих индексации. Если его нет, вы его не нашли или вам он не понравился — пишите очередной пункт в ТЗ программисту. Для него все это как два пальца…
Проверка ответа на ошибку 404
Никто не идеален и уж тем более те, кто будет ставить ссылки на ваш сайт на блогах, форумах, в соцсетах и других местах. Людям свойственно ошибаться. А одна ошибка в URL-адресе страницы ведет к тому, что ваш сервер (где живет сайт) ответит на такой запрос (переход по битой ссылке) кодом 404. Обычное дело, но…
Очень плохо, если эту ошибку будет обрабатывать браузер и выдаст пользователю белый лист с мелкой надписью «404 not found». В этом случае этот посетитель будет для вас потерян. Такие ошибки должен обрабатывать сам сервер и выдавать страницу 404 ошибки в дизайне вашего сайта, что сильно повысит вероятность того, что пользователь этот все же найдет у вас что-то интересное (на вашу радость). Понятно?
Как проверить? Просто добавьте к адресу вашего сайта через слеш любую белиберду типа «http://ktonanovenkogo.ru/fdfdfsf» в адресной строке браузера и смотрите на результат. Видите белый лист с мелкой надписью? Пишите очередной пункт ТЗ для программиста или настраивайте 404 страницу сами, например, опираясь на приведенную выше статью.
Второй важный момент. Нужно убедиться, что ваш веб-сервер (это не тот сервер, что в стойке хостера стоит, а программа веб-сервер) выдает в ответ на запрос несуществующих страниц именно код 404. Если он выдает на них код 200, то беда. Будет много непонятных и ненужных проблем.
Как проверить код ответа? Есть масса сервисов. Например, в составе Яндекс Вебмастера или этот вот. Вставляете в него адрес страницы, которой точно нет на сайте (типа «http://ktonanovenkogo.ru/fdfdfsf») и смотрите на код ответа вашего сервака:
Если там не 404, то прям срочно связываетесь с программистом и просите в экстренном порядке все поправить. На самом деле, этот пункт аудита очень важен, ибо чреват очень неприятными последствиями.
Аудит файла Robots
Испокон компьютерных веков поисковые роботы прежде чем начать обход сайта ищут сначала в его корне файл robots.txt. В нем обычно указывают директивы для поисковых ботов, которые либо запрещают индексирование каких-то страниц и разделов (например, тех, где лежат файлы движка), либо разрешают индексацию, например, поддиректории в запрещенной для индексации директории.
Подробнее про robots.txt и мета-тег роботс читайте в приведенной по ссылке статье. В принципе, этот файл может быть пустой либо его может не быть вовсе. Поисковики, конечно же, сумеют со временем (с годами) разобраться в том, что у вас мусор, а что «ценный контент». Но как и с файлом sitemap.xml — лучше, если поисковому боту «показать пальцем».
Robots.txt служит в основном для указания — туда ходи, сюда не ходи (а тут рыбу заворачивали). Это не значит, что бот туда действительно не пойдет (гуглобот вообще везде ходит), но вы свою задачу выполнили и технические файлы (движка, темы оформления, скриптов) в индекс лезть не будут и время на их индексацию бот, скорее всего, тратить не будет.
Тезисно по проверке robots.txt:
- Аудит имеющегося у вас файла нужно проводить в панели Гугла и Вебмастере Яндекса.
Вводите адреса «показательных» страниц и убеждаетесь, что они доступны для индексации. Потом вводите адреса технических файлов (папок) и убеждаетесь, что они закрыты для индексации. Главное правильно подобрать страницы и ничего не упустить из важного. Если что-то не так, как надо, то добавляйте пункт в ТЗ программисту.
- Раньше в robots.txt требовалось добавлять в отдельном блоке для Яндекса главное зеркало сайта с помощью директивы Hosts. Недавно Яндекс это дело отменил, но директиву многие по-прежнему прописывают.
- Также многие добавляют в Роботс путь до карты сайта в формате xml. Но чуть выше мы с вами пришли к выводу, что лучше не палиться и не облегчать жизнь копипастерам.
- Директивы, запрещающие индексацию в файле Роботс.тхт не означают того, что бот не перейдет на эти страницы и не проиндексирует их. Особенно наплевательски к таким директивам относится Гугл.
Если хотите 100% закрыть страницу от попадания в индекс добавьте в ее html код мета-тег robots (см. скрин). Например, у меня страницы с временными архивами закрыты именно так (через плагин ОлИнСЕоПак).
В мета-теге robots значение «noindex» запрещает индексировать этот документ (страничку, то есть ее содержимое), а «follow» разрешает переходить боту по имеющимся на ней ссылкам (но можно даже и это запретить). Подробнее смотрите в приведенной выше статье по Роботсу.
Проверяем заголовки и альты у картинок
В html предусмотрены уровни заголовков от h2 до H6, которые использовать на странице очень желательно именно в порядке убывания. Главный заголовок — это h2. Не стоит даже ради красоты сначала ставить h4 потом h2, а потом h3. Порядок — есть порядок.
Другое дело, что многие хитрят и делают большие надписи (аля главные заголовки) вообще не заголовками, а обычными блоками (используются, например, теги div вместо h2), размер и вид текста в которых задается просто с помощью CSS.
Дело в том, что в этой надписи (в отличие от h2) не нужно употреблять ключевые слова и ее можно сделать максимально притягательной и не нагруженной ключами. А сам h2 может идти ниже и визуально будет выглядеть как рядовой заголовок или вообще как фрагмент текста.
Уже дальше пойдут h3 (а как их подразделы — h4, если до этого дойдет), которые при продвижении под коммерческие запросы лучше ключами вообще не засорять — LSI фразыдля них будут в самый раз. О них подробнее поговорим в отдельной статье, но если кратко, то это фразы употребляемые экспертами в данной области, а не теми, кто в этом ничего не петрит.
Ну, вы поняли? В принципе, это общая практика и хорошо работает особенно на продающих страницах, где главное склонить покупателя к действию крупными и яркими зазывными текстами, а для поисковиков использовать в скромно оформленном h2 (и тайтле) ключевые фразы (надо опять же смотреть на конкурентов из Топа по этому запросу).
Очень часто содержимое h2 совпадает с содержимым Тайтла (что такое тайтл и дескрипшенчитайте по ссылке). В принципе, h2 дает возможность вариации использования другой версии ключа, а для информационных запросов, когда кластер ключей для одной страницы огромен, заголовки всех уровней дают возможность использовать как можно больше ключевых слов для увеличения трафика на статью.
На данном же этапе аудита вам главное выяснить — соблюдается ли иерархия заголовков на основных типах страниц (главной, категориях, статьях, карточках товаров) вашего сайта и везде ли есть h2. Для этой цели отлично подойдет плагин для браузеров Веб Девелопер, который наглядно может показать все используемые на странице заголовки. Можно и просто подводить мышь к заголовку и из меню правой кнопки выбирать пункт «Посмотреть код» (или «Исследовать элемент»), но это будет не так быстро и наглядно.
Очень часто теги h3-H6 могут использоваться разработчиками шаблона в оформлении темы (заголовках меню, например). Лучше это все убрать, чтобы заголовки были только в уникальной части данной конкретной страницы (в ее теле, а не в обвесе).
Касаемо атрибутов Alt и Title у используемых на сайте изображений (в теге Img). Атрибуты Alt должны быть прописаны обязательно (их содержимое будет отображаться вместо картинки, если ее браузеру не удастся подгрузить), а Title — по желанию (его содержимое показывается при подведении мыши к изображению на странице сайта).
Внимание! Сейчас в Альтах категорически нельзя спамить ключевыми словами, уповая на то, что их дескать не видит посетитель, а потому туда пихают неочеловеченные n-граммы типа «холодильник купить Москва». Множество сайтов за это попали под фильтр.
Зачастую владельцы добавляли ключи даже к изображениям, относящимся к дизайну сайта (логотипам, стрелочкам и тому подобной мишуре). Сейчас Alt должен только описывать то, что изображено на картинке (ну, может еще с использованием LSI фраз — о них напишу отдельную статью).
Как проводить аудит альтов? Чтобы найти страницы, где атрибутов Alt вообще нет, можно использовать уже упомянутый выше Валидатор HTML кода. Он отсутствие альтов отмечает именно как ошибку. Чтобы проверить содержимое тегов Альт отлично подойдет уже упомянутый выше плагин для браузеров Веб Девелопер (он умеет отображать содержимое альтов для всех картинок на странице прямо рядом с изображением).
Естественно, что при нахождении расхождений — правите их сами либо добавляете очередной пункт в ТЗ программисту.
Аудит Seo-тегов для всех страниц сайта
Какие SEO теги существуют? Ну, изначально их было три: Title, description и keywords. Однако, keywords уже давным-давно стал рудиментом. Представляете, изначально он был придуман, чтобы поисковики понимали, по каким запросам ваш сайт ранжировать (добавлять в Топ). Глупые они тогда были.
Что главное в рамках этого этапа аудита:
- Во-первых, Title и description должны быть (какие именно читайте в приведенной выше статье). В смысле, наличествовать. Страница без Title считайте что не существует для поисковиков. Description тоже важен, но уже не так. О таких страницах (без тайтлов) вам с радостью расскажут Гугл и Яндекс Вебмастер в блоках с найденными ошибками. Также это наглядно можно увидеть с помощью такой бесплатной программы, как Xenu Link, если отсортировать собранные ею данные по столбцу «titile» (увидите пустые ячейки).
- Во-вторых, не должно быть одинаковых Тайтлов у страниц в рамках одного сайта. Они должны хоть чем-то отличаться, даже если это карточки с похожими товарами. О таких ошибках вам опять же сообщат в панели вебмастеров Яндекса и Гугла (у меня таких ошибок нет, а посему скрин привести не могу, но вы покопайтесь сами). Если сайт небольшой, то одинаковые теги Title вы и с помощью Xenu Link сможете выявить.
Если сайт совсем маленький, то можно посмотреть Тайтлы и Дескрипшены вручную просто нажав Ctrl+U на клавиатуре (посмотреть исходный код страницы):
Что делать, если ошибки такого рода были найдены? Если это статьи или карточки товаров, то просто измените чутка Тайтлы или настройте автоматическую их генерацию для карточек на основе шаблона.
У меня такая проблема была на страницах с пагинацией (типа главной на этом блоге, где внизу есть нумерация). Я просто закрыл страницы пагинации от индексации (через мета-тег Роботс) и добавил на всякий случай к ним мета-тег Каноникал указывающий первую страницу как каноническую.
Если ничего не поняли, то программист поймет обязательно и быстро решит для вас выявленные на этом этапе аудита проблемы. А иначе зачем вы ему деньги платите?
Проверка склейки зеркал
Поисковики такие глупые, что считают некоторые совершенно одинаковые на наш взгляд страницы разными. Например, для Яндекс и Гугла страницы со слешем и без слеша в конце будут разными:
http://ktonanovenkogo.ru
и
http://ktonanovenkogo.ru/
А также доменное имя сайта с www и без www для них воспринимают как два разных сайта:
http://ktonanovenkogo.ru
и
http://www.ktonanovenkogo.ru
Ну, как бы и ладно, что нам с этого, убудет что ли. Таки убудет. Контент-то на этих страницах и сайтах будет одинаковый. А это что? Правильно. Дублирование контента, чего очень не любят поисковики. Почему? Потом что мы одним и тем же забиваем их базу, а значит для ее хранения нужно больше «железа» и больше денег. А лишние деньги поисковики тратить не любят.
Второй очевидный минус. Внешние ссылки будут проставляться людьми и так и так (со слешем, без него, с www и без него). Если эти зеркала не склеены, то поисковик (он на самом деле не такой тупой) выберет что-то одно как главное зеркало. А что будет с теми ссылками, что ведут не на главное зеркало? Правильно, они не будут приняты в расчет, что повлияет в худшую сторону на ранжирование сайта.
Поэтому зеркала нужно склеить с помощью 301 редиректа (мы этим говорим поисковикам, что это перенаправление делается навсегда в отличие от временного 302 редиректа). После этого дубли исчезнут в глазах поисковиков, а все ссылки будут учтены в независимости от того был у них в конце слеш или нет, а также было ли www или нет.
Как провести аудит склейки зеркал? Довольно просто. Открываете в браузере ваш сайт и начинаете в адресной строке над ним глумиться. Для начала допишите перед доменом (после http://) три буквы www или, наоборот, сотрите их, если они там были. Потом нажмите Энтер на клавиатуре. Что произошло?
- Страница обновилась, а в адресной строке ваше изменение сохранилось. Это плохо — зеркала не склеены.
- Страница обновилась, но в адресной строке www исчезло. Это здорово, ибо именно так и отрабатывает 301 редирект у склеенных зеркал. Проверьте все то же самое и с другими страницами сайта. В идеале везде должно редиректить на главное зеркало (оно у вас может быть как с www, так и без www — вообще не важно).
Теперь проведите тот же эксперимент со слешем. Если на главной странице в адресной строке его в конце нет, то добавьте и нажмите Энтер на клавиатуре. Если слеш остался, то склейки такого типа зеркал нет — надо будет дорабатывать. Если слеш изчез, то все ОК и зеркала такого типа тоже оказались склеены.
Проверяем дальше. Добавьте в конце адреса главной страницы «/index.php», чтобы получилось так «http://ktonanovenkogo.ru/index.php». Жмите на Энтер. Редиректит на основное зеркало (в моем случае «http://ktonanovenkogo.ru»). Если нет (/index.php остается), то поздравляю — вы нашли еще одно не склеенное зеркало.
То же самое проверьте с /index.html и т.п. Забыл сказать, что нормальным вариантом при таких добавках будет также появление страницы 404 (не найдено). В этом случае тоже дублей не будет, а ссылки с index после Урла главной страницы генерят только движки сайтов, но никто из людей на вас внешнюю ссылку в таком виде не поставит.
Что делать, если на этом этапе аудита вы нашли не склеенные зеркала? Похвалить себя, а потом либо самим попробовать сие безобразие поправить опираясь на эту и еще вот этупубликацию, либо добавить еще один пункт в ТЗ программисту. Для него эта проблема выеденного яйца не будет стоить.
P.S. Если аудит показал, что зеркала (например, с www и без www) не были склеены, то в качестве будущего главного лучше выбрать то, которое таковым посчитала поисковая система. Для коммерческих запросов основным поисковиком является Яндекс, а посему нужно ввести в его строку домен вашего сайта и подвести курсор мыши к названию вашего сайта в выдаче. В нижнем левом углу браузера вы увидите адрес вашего сайта и именно такой вид стоит выбрать для главного зеркала (с www или без него).
Проверка битых ссылок на сайте
Что это такое? На вашем сайте всегда будут иметь место ссылки двух типов:
- Внутренние — ведущие на другие страницы вашего же сайта.
- Внешние — ведущие, соответственно, на другие ресурсы.
Так вот, оба этих вида ссылок могут быть битыми, испорченными, то есть не приводящими к открытию страницы, на которые они по идее должны вести.
Почему это может происходить:
- Вы сами ошиблись при вставке ссылки (ввели URL адрес с ошибкой, допустили ошибки в теге гиперссылки).
- Страница, на которую ведет эта ссылка могла со временем поменять адрес или вовсе быть удаленной (перенесенной). Это могли сделать вы сами на своем сайте (или ваш программист) и не учесть данное изменение в перелинковке. На чужом сайте могло произойти то же самое и внешняя ссылка в результате этого стала битой.
- Если это была внешняя ссылка, то могла даже исчезнуть не только сама страница, но и весь сайт. Кстати, несказанно грустно это наблюдать.
В любом случае вы должны регулярно проводить полный аудит всех имеющихся на сайте ссылок на предмет того, не появились ли среди них битые (ведущие в никуда). Почему это так важно? Поисковые боты ходят только по ссылкам и если у вас будет слишком много путей, по которым пройти нельзя, то они могут обидеться.
В лучшем случае, ваш сайт с кучей битых ссылок будет выглядеть для поисковых систем непрезентабельно. Это как магазин с облупившейся витриной, разбитыми стеклами и поломанными ступенями — доверия не вызывает. Битые ссылки будут всегда и везде — такова их природа. Нужно просто регулярно проводить проверку и исправлять (или удалять) те пути, по которым пройти невозможно.
Естественно, что переходить по всем ссылкам на всех страницах сайта будет не нужно. Это процесс можно легко автоматизировать. Как это сделать? Об этом можно почитать тут — Проверка битых ссылок.
Я делаю так:
- Раз в несколько месяцев прогоняю свой блог через сервис Broken Link Checker (подробнее о нем читайте в приведенной статье). Он проводит аудит очень быстро — минут за десять, наверное (но находит далеко не все). Я лечу или удаляю найденные пути ведущие в никуда и еще на несколько месяце об этом забываю.
- Раз в год или чуть больше я прогоняю сайт через программу Xenu Link Sleuth. Она бесплатная и расскажет о вашем сайте вообще все. Работает она долго — зато найдет все, что побилось или поломалось. Потом долго и нудно все это лечу, чтобы еще на год-два забыть об этом.
Естественно, что все это можно переложить на плечи программиста ничто вам не помешает проконтролировать выполненную им работу по описанным выше методикам.
Проверка наличия ЧПУ-адресов
Есть такой термин ЧПУ. Означает человеко-понятные урлы. Урлы — это адреса страниц вашего сайта. В принципе, они могут быть двух видов:
- Формируемые движками сайтов, когда после домена следуют знак вопроса и куча непонятных параметров (цифро-букв). Например, «http://ktonanovenkogo.ru/?p=59164». Это не очень хорошо, ибо человек глядя на такой адрес мало что понимает.
- Но бывают Урлы преобразованные к виду понятному человеку (ЧПУ). Вот так, например:http://ktonanovenkogo.ru/wordpress/plagini_wordpress/bitye-ssylki-proverka-paneli-yandeksa-google-programmoj-xenu-link-sleuth-wordpress-plaginom-broken-link-checker.html
Тут видны разделы, в которых помещена эта статья и их, кстати, можно открыть просто удалив все лишнее справа от последнего слеша (сам иногда так делаю на других сайтах, если там нет хлебных крошек). Да и сам Урл представляет из себя вполне себе читаемый вариант заголовка, написанный транслитом (что это такое?).
Считается оптимальным использовать именно латиницу (транслитерацию с русского), нежели кириллицу. Связано это с особенностями работы поисковиков и некоторыми другими возникающим на ровном месте проблемами.
Что делать, если взглянув в адресную строку своего (или продвигаемого вами) сайта вы обнаружили, что Урлы не вида ЧПУ? Все зависит от возраста сайта. Если он только что появился и даже еще толком не проиндексировался, а также трафик на него пока не велик — смело подключайте ЧПУ. Как подключить ЧПУ в WordPress я как-то уже писал, но ваш программист сможет это с легкостью сделать для любого движка.
Если сайт уже имеет приличный трафик с поисковых систем, то ничего не трогайте. Да, ЧПУ лучше, но если вы сейчас его подключите, то трафик потеряете (хотя если делать грамотно, то можно и не потерять, но нужен спец). Возможно, что со временем он вернется, но я бы не рисковал. Считайте, что результатом этого этапа аудита для вас стало знание как нужно было делать, если бы была возможность начать все сначала.
Аудит внешних ссылок
Это не SEO-аудит на предмет качества, количества и содержания проставленных на ваш сайт ссылок (об этом мы еще в отдельной статье поговорим). Это аудит ссылок ведущих с вашего сайта. В идеале с него не должно быть проставлено ничего лишнего и уже тем более открытого для индексации, но это в идеале.
Откуда могут взяться лишние внешние ссылки? Ну, есть варианты.
- Вам сделали сайт и зашили в него ссылку на компанию-разработчика.
- Вам поставили шаблон, в котором были вшиты внешние ссылки (или даже код Сапы для продажи ссылок).
- Сайт заражен вирусом (или его взломали), что опять же может выразиться в появлении несанкционированных вами внешних ссылок.
- Ваш программист или администратор барыжат продажей ссылок с обслуживаемых ими сайтов (у них ведь есть полный доступ к коду).
Если вы думаете, что сможете найти их визуально, то могу вас разочаровать, ибо сие крайне маловероятно. А посему нужно взглянуть на сайт глазами поисковика, а точнее его бота. Сделать это можно только с использованием софта или специальных сервисов. Каких именно?
- Да все та же программа Xenu Link Sleuth собирает данные обо всех ведущих с вашего сайта ссылках. Отсортируйте ее результаты по первому столбцу «Addres» и вы увидите весь список внешних ссылок.
- Можно использовать замечательный СЕО-плагин для браузера RdsBar. В его настройках включите «Подсветку внешних ссылок»:
В результате на открытой в браузере странице все внешние ссылки будут перечеркнуты, а те из них что открыты для индексации будут обведены красным пунктиром (это совсем плохо):
Внимательно осмотрите таким образом все «показательные» страницы особенно во периметру (шапка, футер, сайдбр). Но опять же, визуально не все можно увидеть.
- Можете использовать этот сервис (потребуется лишь регистрация). Вводите там адрес страницы и получаете список всех ведущих с нее ссылок. Внешние ссылки будут подсвечены красным цветом. Если ее анкор (текст ссылки) в соответствующем столбце перечеркнут, то значит она закрыта для индексации (в ней прописан атрибут rel=»nofollow», хотя вес по ней все равно утекать будет).
- Есть похожий инструмент для постраничной проверки исходящих ссылок в Pr-Cy. Ищите в столбце «Внешние ссылки» те строки, где нет красной надписи NOFOLLOW.
Если «левые» внешние ссылки в результате аудита будут найдены, то дайте задание программисту на их удаление либо сами попытайте понять «откуда у них ноги растут». Зачастую они могут быть глубоко вшиты в код шаблона (зашифрованы) и для их удаления потребуются определенные навыки. Думаю, что программист справится. В крайнем случае поменяйте шаблон (тему оформления).
Тег Canonical
В чем смысл Canonical? Это инструмент актуальный для Гугла (в меньшей степени для Яндекса), который позволяет на страницах с полностью или частично дублированным контентом оставить метку о том, что это как бы не страница сама по себе, а копия канонической версии страницы (в мета-теге как раз указывается ее адрес) и не нужно ее индексировать.
Где и когда это может понадобиться? Чаще всего таким образом решают проблему со страницами, имеющими пагинацию (это когда внизу будет переход на вторую, третью и другие части этой страницы). У меня это «Главная» и страницы рубрик.
У таких страниц одинаковый Тайтл, h2 и Дескрипшн (зачастую и небольшой SEO-текст, который добавляют для поисковиков), а значит в глазах поисковиков это дубли. Чтобы не искушать судьбу нужно для страниц типа «http://ktonanovenkogo.ru/page/2» добавить в html код тег Canonical с указанием Урла канонической (основной) для нее страницы (в нашем примере это «http://ktonanovenkogo.ru»):
В чем заключает данный этап аудита? Просто пройдитесь по всем страницам с пагинацией и посмотрите прописан ли на вторых, третьих и так далее страницах пагинации этот мета-тег (ищите в исходном коде с помощью Ctrl+U и Ctrl+F) и ведет ли он на правильную каноническую страницу (ту, что без номера, т.е. первую в пагинации — материнскую).
Кроме пагинации Canonical может использоваться и в других случаях. Например, имеет смысл его применять для версий страницы для печати или отдельной мобильной версии. Также он позволяет убрать дубли, создаваемые движком сайта (из-за каких-то своих внутренних багов).
Также Canonical позволяет не засорять индекс различными страницами фильтрации (сортировок) используемых в интернет-магазинах (если только для каждой из таких страниц не формируются свои собственные Тайтлы, h2 и сео-тексты, что делает их уникальными).
Все найденные замечания добавьте в ТЗ вашему программисту. Если интересно, то тут описан мой вариант настройки Canonical для блога на Вордпресс.
Аудит индексации сайта
Суть проверки — это понять насколько полно и правильно индексируется наш ресурс. Для этого достаточно будет просто сравнить число страниц в индексе Яндекс и Гугла с помощью уже упоминаемого выше плагина для браузеров РДС-бар.
Как видите, у меня в индексе Яндекса на треть страниц больше, чем в Гугле. В принципе это звоночек, который обязательно нужно проверить (как-то я таким образом серьезную проблему выявил, именно сравнив число страниц в индексе).
Для детального анализа можно кликнуть по цифрам в окне РДС-бара и перейти в выдачу Яндекса или Гугла. Очень часто в индекс попадают мусорные страницы типа «поиска по сайту», которые обязательно нужно закрывать от индексации через мета-тег Роботс (читайте об этом выше), но многие забывают. Также в индекс могут попасть и дубли страниц, которые не закрыли с помощью Canonical, как это было описано выше (например, страницы пагинации).
У меня проблем не выявилось (скорее баг плагина), ибо я проверил число страниц в индексе через Яндекс Вебмастер (из левого меню «Индексирование» — «Страницы в поиске» и внизу открывшейся страницы выгрузка в формате Эксель) и число выгруженных оттуда страниц совпало с тем, что было в Гугле. Но лучше лишний раз проверить, чем потом проблемы огребать.
P.S. Если на сайте используется структура поддоменов (частое явление для расширения региональности под Яндекс — отдельный домен под каждый новый регион), то нужно учитывать, что в Гугле все страницы на основном домене и поддоменах попадают в общий индекс, ибо он считает их все одним сайтом. Яндекс же поддомены (домены третьего уровня) считает за разные сайты.
Добавлю сюда же быструю проверку структуры вашего сайта. При продвижении коммерческих запросов важно все (это как хотьба по минному полю, где важно идти по следам уже прошедших его). Сама по себе структура будущего сайта в идеале списывается у тех, кто уже находится в Топе по вашим запросам. Просто тупо выписываете структуру (пункты меню) 10 сайтов из топа (исключая агрегаторы, типа Авито), удаляете повторения и вот у вас лучшее из того, что может быть.
Аудит структуры в данном случае будет очень быстрым (поверхностным). Просто выписываете среднее число страниц ваших конкурентов из Топа, которое находится в индексе поисковиков. Вычисляете по ним среднюю температуру по больнице и сравниваете со средним числом страниц вашего сайта в индексе Яндекса и Гула. На основании этого делаете вывод — нужно ли вам еще расширять структуру (если число страниц вашего сайта серьезно меньше) или нет.
Чек-лист по юзабилити и коммерческим факторам
Юзабилити — это удобство взаимодействия с сайтом, которое во многом связано с соблюдением тех стандартов, к которым уже привыкли пользователи интернета и не найдя которые они «сильно расстроятся». Почему так любят соцсети? Потому что там все привычно, на своих местах, понятно и просто. Но и на обычных сайтах есть стандарты дефакто, которые нарушать не стоит.
Коммерческие факторы — это такие элементы сайта (и не только его), которые жизненно необходимо иметь при продвижении под коммерческие запросы. Их довольно много и не все владельцы обращают на это внимание (будет отдельная статья по этой теме — подпишитесь, чтобы не пропустить). А между тем, это один из критических факторов, который при всем при том очень легко накрутить (подтянуть до нужного уровня) с минимальными усилиями.
Особенность данного этапа аудита заключается в том, что все эти факторы работают в комплексе. То есть они должны быть хотя бы «по большей части». На данном этапе вам главное провести проверку на предмет наличия всех этих вещей именно на вашем сайте. А уже по его результатам составлять ТЗ программисту на доработку.
- Копирайт (знак копирайта, название и год основания) — пустячок, который обычно в самом низу страницы выводится и выглядит так:© KtoNaNovenkogo.ru, 2009-2018 | Все права защищены Быть должен обязательно. Если нет, то сделайте сами или программиста озадачьте.
- Логотип — обязательный атрибут (графический или текстовый, как у меня) и при этом он обязательно должен являться ссылкой, ведущей на главную страницу. Это догма, которой ни в коем случае не стоит пренебрегать.
- Форматирование текстов — страница не должна выглядеть как кусок слепленного в один комок текста. Должны быть на уровне CSS проработаны удобные абзацы, юзабельные списки, таблицы, красивые заголовки (подзаголовки) и т.п. Посетитель принимает решение «остаться или уйти» всего за пару секунд и смотрит он в это время не на содержание, а на его подачу.
- Кнопки на сайте — они могут быть графическими или текстовыми, но главное тут не само наличие, а понимание посетителями, что это кнопка. Как этого добиться? Есть такое понятие в CSS как hover-эффект, который позволяет заставить кнопку менять свой вид при подведении к ней мыши. Обычно меняется либо фон кнопки, либо цвет текста, но возможны и другие эффекты. Главное, чтобы было ясно, что это кнопка и по ней можно (нужно) кликнуть. Если этого где-то нет, то озадачьте себя или программиста решением данной проблемы.
- Шрифты — очень портится восприятие сайта (страдает юзабилити), когда на нем используется слишком много разных шрифтов. Всего хорошо в меру и нужно добиваться лаконичности, а не вычурности. Если глазам не доверяете, то кликните по слову правой кнопкой мыши и выберите «Посмотреть код».
- Время и дни работы — очень важный коммерческий фактор. Поисковики это все «берут на карандаш». График работы должен быть выполнен в виде сквозного блока, отображаемого на всех страницах, и размещаться вверху (в шапке) или в внизу шаблона (в футере).
- Регион работы — тоже очень важный коммерческий фактор добавляющий удобства пользователям и нравящийся поисковикам (Яндексу). Как все это лучше оформить подсмотрите у более успешных конкурентов из Топа, по вашим основным ключевым запросам.
- Поиск по сайту — важный юзабилити элемент, который должен быть обязательно на любом сайте. Способов реализации много. Например, можно использовать поиск по сайту от Яндекса или скрипт от Гугла. У каждого движка сайта или интернет-магазина есть свои возможности реализации поиска.
- Хлебные крошки — эта навигационные ссылки, которые помогают посетителям понять, на какой странице они сейчас находятся и при необходимости перейти в раздел, относящейся к этой странице. Вариантов реализации море (даже я описывал их тут и тут).
Они очень сильно повышают юзабилити и лучше будет их реализовать тем или иным способом. Важно и их размещение. Общепринято, что они должны располагаться в верхней левой части страниц, где их и будут искать большинство посетителей.
Вообще, все базовые элементы сайтов должны быть расположены там, где пользователи привыкли их видеть на сайтах лидерах (в вашей нише).
Для каждого движка наверняка найдется свой плагин хлебных крошек либо ваш программист реализует их самостоятельно, что тоже несложно.
- Политика обработки персональных данных — стало актуально недавно в связи с новым федеральным законом 152-ФЗ о сборе и защите персональных данных. За несоблюдение сих требований предусмотрены довольно приличные штрафы. Хотя бы политику конфиденциальности разместить стоит и дать на нее ссылку где-нибудь в подвале сайта.
- Кнопка прокрутки вверх — по соображениям юзабилити, такая кнопка желательна (у меня ее нет), но лучше посмотрите на сайты из Топа по вашей тематике.
- Онлайн-консультант — отличный инструмент для повышения не только коммерческих факторов сайта, но и для улучшения поведенческих характеристик и повышения конверсии. Не стоит думать, что для его реализации вам потребуется нанимать сотрудников для ответов или самому все время быть на связи. Просто разрабатываете базу ответов на частые вопросы и отвечать за вас будет «бот». В случае затруднений он предложит клиенту оставить телефон для консультаций, а это ведь первый шаг к продажам. В общем, штука невероятно эффективная при должной настройке.
- Обратный звонок — тоже отличный и почти что обязательный инструмент для коммерческих сайтов (пример смотрите тут). Желательно, чтобы эта кнопка была бы доступна на первом экране любой страницы вашего сайта.
- Ссылки на соцсети — комильфо, если ваш сайт будет представлен в основных соцсетах (ВК, Фб, ОК, Твиттер и т.п.) и на его страницах будут размещены ссылки на эти соцсети (у меня это сделано в правой верхней части сайта).
Это важный фактор, учитываемый поисковиками. Даже для проектов, которым как бы не о чем писать в социалках, есть возможность размещать там экспертные материалы с новостями отрасли вообще. Достаточно постить материалы в одной соцсети, а в остальные их можно просто копировать.
- Возможность поделиться в соцсетях — актуально как для информационных (кнопки для расшаривания статей в социалки, например, как эти, эти, эти или эти), так и для коммерческих запросов (возможность поделиться в соцсетях должна быть на всех карточках товаров).
- Блок с новостями (либо новыми статьями) — обязательный атрибут любого сайта. Желательно, чтобы этот блок был доступен с главной страницы или даже был бы сквозным.
- Электронная почта на домене — важный фактор, говорящий в пользу вашего сайта. Посмотрите на адрес почты, который указан у вас в контактах. Если Емайл оканчивается не на ваш домен (как, например, [email protected]), а на yandex.ru или gmail.com, то считайте, что вы выявили серьезную проблему с помощью этого аудита. Не волнуйтесь, создать ящик на своем домене просто и пользоваться им можно будет в привычном вам интерфейсе, если пожелаете (читайте про Емайл на домены в Яндексе и тоже самое у Гугла).
- Для интернет-магазинов актуальна перелинковка в карточках товаров. Осуществляется с помощью блоков «Похожие товары», «Недавно просмотренные», «С этим обычно покупают», рекомендуем и т.д. Стало дефакто обязательным атрибутом, отсутствие которого сразу будет работать в минус вашему ресурсу. Также желательно предлагать посетителям покупку в один клик, что также стало правилом хорошего тона.
- Раздел «Контакты» — один из важнейших коммерческих факторов, сильно влияющий на успешность (и даже возможность) продвижения. В этом разделе обязательно должен быть указан адрес (полный почтовый адрес офиса с индексом), телефон (с кодом города или 8-800, но ни в коем разе не мобильный номер), время работы, Емайл (очень хорошо, если будет форма обратной связи). Также должна быть карта проезда на личном авто, на общественном транспорте и пешком. Я как-то писал про то, как можно создать схему проезда на основе Яндекс Карт и получить карту проезда для сайта от Гугла.
- Варианты оплаты и доставки — на коммерческом сайте обязательно должны быть такие страницы с подробнейшим пошаговым описанием (иногда даже с добавление видео-пояснений). Кроме наличия таких страниц должны быть еще и ссылки на них (на видном месте) в карточках с товарами. Это тоже очень важный коммерческий фактор (характеризующий вашу «услужливость»).
Пора итожить
Пройдясь по всем пунктам приведенного выше аудита вы, возможно, найдете много того, что имело бы смысл изменить, подправить или убрать. Глядя на сайт невооруженным взглядом большинство озвученных выше проблем останутся незамеченным. Считайте, что я вас вооружил. И помните, чего-то неважного тут нет, ибо любая мелочь важна (ведь именно она может отделять вас от успеха).
После того как пройдете по всем пунктам аудита и выявите какие-то ошибки, вы готовите окончательный вариант ТЗ программисту. Выбор программиста это тема для отдельной статьи. Искать их можно на фриланс-биржах, но подходить к выбору стоит тщательно, ибо полагаться на отзывы и рейтинги сложно в силу их частой накрутки.
Программист оценивает фронт работ, озвучивает стоимость и сроки исполнения, после чего вы все это утверждаете и он начинает вносить в сайт необходимые правки (платить ему лучше поэтапно после проверки выполнения каждого пункта ТЗ). Как вариант, можете все делать и сами, но некоторые моменты будут весьма сложны для новичков и можно понаделать «не того».
В следующих статьях данной рубрики планирую подробно поговорить про коммерческие факторы ранжирования, про то, что сегодня из себя представляет SEO, про то нужны ли для продвижения ссылки и как заполучить самую идеальную из них. Подробно поговорим про SEO тексты, LSI фразы и многое, многое другое. Подпишитесь, чтобы не пропустить.
Полностью статью можно прочесть ТУТ
Валидатор веб-сайтов
О валидаторе веб-сайтов
Каковы наиболее распространенные ошибки на вашем веб-сайте? Валидатор веб-сайтов сканирует веб-сайт, прогоняет содержимое через Валидатор HTML W3, обобщая для вас содержимое. Валидатор веб-сайтов разбивает ошибки и предупреждения по типам, а также дает вам общий процент страниц без ошибок. На вкладке Сводка ошибок вы найдете подробное описание всех ошибок, обнаруженных на вашем сайте. Перейдите на вкладку страниц с ошибками , чтобы начать устранение проблемных мест.Имейте в виду, что не все ошибки в разметке HTML одинаково проблематичны, и многие ошибки практически не влияют на то, как страница отображается для пользователя.
Этот инструмент использует веб-службы W3C Markup Validation Service и HTML5 Nu HTML Checker. Мы используем эти несколько валидаторов, чтобы снизить нагрузку на любой валидатор. Возможно, эти два разных валидатора запускают два разных экземпляра Nu HTML Checker и, следовательно, могут сообщать о разных ошибках, даже при проверке одной и той же страницы.
Мы просим вас проявить доброту к сторонним службам. При внесении изменений в URL-адрес используйте «См. Проверку» на вкладке Страницы с ошибками , чтобы проверить только эту страницу, а не повторно запускать средство проверки сайта для всего сайта. При внесении изменений в шаблон, совместно используемый страницами, мы рекомендуем убедиться в отсутствии ошибок в шаблоне, проверив одну страницу, которая сначала использует этот шаблон, перед повторным запуском валидатора веб-сайтов. У нашего паука ограничение на 1000 страниц в день, у этих сервисов могут быть свои ограничения.
О Spider
Чтобы этот инструмент работал, мы должны сканировать сайт или страницу, которую вы хотите проанализировать. Мы делаем это с помощью DatayzeBot, паука данных.
Наш паук медленно ползет со скоростью 1 страница за 1,5 секунды. Хотя паук не отслеживает содержимое просматриваемых страниц, он отслеживает количество запросов, отправленных каждым посетителем. В настоящее время поисковый робот ограничен 1000 страницами на пользователя в день. Поскольку DatayzeBot не индексирует и не кэширует сканируемые страницы, повторный запуск Валидатора веб-сайтов будет учитываться в вашем дневном разрешенном количестве обходов страниц.Вы можете обойти это ограничение, приостановив поисковый робот и возобновив его в другой день.
DatayzeBot теперь соблюдает стандарт исключения роботов. Чтобы разрешить (или запретить) сканеру доступ к странице или каталогу, создайте новый набор правил для « DatayzeBot » в файле robots.txt. DatayzeBot будет следовать самому длинному правилу сопоставления для указанной страницы, а не первому правилу сопоставления. Если подходящего правила не найдено, DatayzeBot предполагает, что ему разрешено сканировать страницу. Не уверен, что страница исключена вашим файлом robots.txt файл? Приложение Index / No Index проанализирует заголовки HTML, метатеги и файл robots.txt и подведет итоги для вас.
Заинтересованы в веб-разработке? Попробуйте другие наши инструменты, такие как Анализатор навигации по сайту, который позволяет вам увидеть, что видит паук. Он может проанализировать разнообразие вашего анкорного текста и найти кратчайший путь к любой странице. Средство проверки тонкого содержимого может анализировать содержимое вашего сайта, сообщать вам процент уникальных фраз на странице и генерировать гистограмму длины содержимого страницы.Обычная потребность веб-разработчиков — знать, какие из их страниц индексируются, а какие нет. Таким образом, мы создали Анализатор индекса Sitemap.
Бесплатный инструмент для проверки неработающих ссылок
Неработающие ссылки ухудшают рейтинг и удобство использования вашего сайта? От этого никуда не деться — ошибка
404 страницы вредны для бизнеса.
Средство проверки мертвых ссылок просматривает ваш веб-сайт, выявляя неработающие ссылки.
чтобы вы поправили.
«… Я попробовал три разных средства проверки ссылок в Интернете, и ваш был самым простым в использовании и созданном
наиболее полезные данные отчета. «
— Довольный покупатель
МУЛЬТИ ПРОВЕРКА
Multi Check позволяет запускать средство проверки мертвых ссылок на нескольких веб-сайтах за один раз.
Затем отчет автоматически отправляется вам по электронной почте.
АВТОПРОВЕРКА
Наша самая популярная услуга — Auto Check, которая запускает проверку неработающих ссылок через ваш веб-сайт (-ы) на
регулярно и автоматически отправляет вам отчеты по электронной почте.
Неработающие ссылки наносят урон:
- Остановка сканеров веб-сайтов поисковой системы на их следах — снижение вашего рейтинга из-за того, что Google, Yahoo, Bing и т. Д. Не смогут проиндексировать страницу.
- отрицательно влияет на взаимодействие с пользователем — перенаправляя посетителей на страницы с ошибками.
Простое и доступное решение для веб-мастеров и профессиональных SEO-специалистов:
- Бесплатная ручная проверка — для одного и нескольких сайтов.
- Три выгодных пакета подписки — для автоматической проверки ссылок.
- Нет необходимости связывать с большими наборами или пакетами SEO — как с большинством наших конкурентов.
- Подчеркивает возможностей построения неработающих ссылок.
- Нет загрузок .
Проверьте свой веб-сайт сегодня — посетите наши страницы проверки сайтов, многосайтовой проверки или автоматической проверки.
Полный список бесплатных и платных услуг, предлагаемых DeadLinkChecker.com нажмите здесь. Один, несколько
и автоматические услуги сравниваются, показывая предоставляемые функции.
Чтобы получить доступ к программе проверки нескольких сайтов или автоматической проверки, сначала войдите в систему или создайте бесплатную учетную запись.
© 2013‑2021 Сайты с DLC
Как проверить свой сайт на наличие битых ссылок
В этой статье описаны два метода проверки веб-сайта на наличие битых ссылок:
- Консоль поиска Google позволяет просматривать неработающие ссылки и ошибки, обнаруженные сканерами Google.Эта информация автоматически обновляется каждый раз, когда Google сканирует ваш сайт.
- W3C Link Checker по запросу сканирует ваш сайт на наличие неработающих ссылок. Этот метод также предоставляет конкретную строку в исходном HTML-файле, содержащую неработающую ссылку.
Метод № 1: Консоль поиска Google
Чтобы постоянно отслеживать неработающие ссылки на вашем сайте с помощью консоли поиска Google, выполните следующие действия:
- Войдите в свою учетную запись Google Search Console.Если у вас еще нет учетной записи Google Search Console, зарегистрируйтесь здесь.
- Щелкните сайт, за которым хотите следить. Откроется страница Search Console.
- Нажмите «Сканировать», а затем нажмите «Просмотреть как Google». Здесь вы можете запросить у Google сканирование определенных страниц вашего сайта.
Этот процесс происходит не сразу. Сканирование вашего сайта Google может занять до одной недели.
- После того, как Google просканирует сайт, для доступа к результатам нажмите Сканирование, а затем нажмите Ошибки сканирования.Откроется страница ошибок сканирования.
- В разделе «Ошибки URL» отображаются все неработающие ссылки, обнаруженные Google в процессе сканирования.
Метод № 2: W3C Link Checker
Чтобы просканировать ваш сайт на наличие битых ссылок с помощью W3C Link Checker, выполните следующие действия:
- Используйте свой веб-браузер, чтобы посетить W3C Link Checker.
- В текстовом поле Введите адрес (URL) документа, который вы хотите проверить, введите URL сайта, который вы хотите просканировать.
- Чтобы видеть только релевантные выходные данные, установите флажок «Только сводка».
- Чтобы проверять ссылки на последующих страницах, установите флажок Проверять связанные документы рекурсивно. В текстовом поле глубины рекурсии введите, сколько уровней вы хотите проверить.
- Щелкните Проверить. Результаты отображаются при сканировании каждой страницы.
Служба проверки разметки W3C
Проверка по URI
Проверить документ онлайн:
Адрес:
Больше опций
Кодировка символов | (обнаруживать автоматически) utf-8 (Unicode, весь мир) utf-16 (Unicode, весь мир) iso-8859-1 (Западная Европа) iso-8859-2 (Центральная Европа) iso-8859-3 (Южная Европа) iso-8859 -4 (североевропейский) iso-8859-5 (кириллица) iso-8859-6-i (арабский) iso-8859-7 (греческий) iso-8859-8 (иврит, визуальный) iso-8859-8-i ( Иврит, логический) iso-8859-9 (турецкий) iso-8859-10 (Latin 6) iso-8859-11 (Latin / Thai) iso-8859-13 (Latin 7, Baltic Rim) iso-8859-14 (Latin 8, кельтский) iso-8859-15 (Latin 9) iso-8859-16 (Latin 10) us-ascii (базовый английский) euc-jp (японский, Unix) shift_jis (японский, Win / Mac) iso-2022-jp (Японский, электронная почта) euc-kr (корейский) ksc_5601 (корейский) gb2312 (китайский, упрощенный) gb18030 (китайский, упрощенный) big5 (китайский, традиционный) Big5-HKSCS (китайский, Гонконг) tis-620 (тайский) koi8- r (русский) koi8-u (украинский) iso-ir-111 (кириллица KOI-8) macintosh (MacRoman) windows-1250 (центральная Европа) windows-1251 (кириллица) windows-1252 (западная Европа) windows-1253 (греческий ) windows-1254 (турецкий) windows-1255 (иврит) windows-1256 (арабский) windows-1257 (бал тик обод) | Только при отсутствии |
---|---|---|
тип документа | (обнаруживать автоматически) HTML5 (экспериментальный) XHTML 1.0 StrictXHTML 1.0 TransitionalXHTML 1.0 FramesetHTML 4.01 StrictHTML 4.01 TransitionalHTML 4.01 FramesetHTML 4.01 + RDFa 1.1HTML 3.2HTML 2.0ISO / IEC 15445: 2000 («ISO HTML») XHTML 1.1XHTML + RDFaXHTML Basic 1.0XHTML Basic 1.1XHTML Профиль печати для мобильных устройств 1.0XHTML- XHTML 1.1 плюс MathML 2.0 XHTML 1.1 плюс MathML 2.0 плюс SVG 1.1 MathML 2.0SVG 1.0SVG 1.1SVG 1.1 TinySVG 1.1 BasicSMIL 1.0SMIL 2.0 | Только при отсутствии |
Список сообщений последовательно сгруппировать сообщения об ошибках по типу | ||
Показать источник | Очистите разметку с помощью HTML-Tidy | |
Показать контур | Проверить страницы ошибок | Подробный вывод |
Подтвердить загрузкой файла
Загрузить документ для проверки:
Файл:
Больше опций
Кодировка символов | (обнаруживать автоматически) utf-8 (Unicode, весь мир) utf-16 (Unicode, весь мир) iso-8859-1 (Западная Европа) iso-8859-2 (Центральная Европа) iso-8859-3 (Южная Европа) iso-8859 -4 (североевропейский) iso-8859-5 (кириллица) iso-8859-6-i (арабский) iso-8859-7 (греческий) iso-8859-8 (иврит, визуальный) iso-8859-8-i ( Иврит, логический) iso-8859-9 (турецкий) iso-8859-10 (Latin 6) iso-8859-11 (Latin / Thai) iso-8859-13 (Latin 7, Baltic Rim) iso-8859-14 (Latin 8, кельтский) iso-8859-15 (Latin 9) iso-8859-16 (Latin 10) us-ascii (базовый английский) euc-jp (японский, Unix) shift_jis (японский, Win / Mac) iso-2022-jp (Японский, электронная почта) euc-kr (корейский) ksc_5601 (корейский) gb2312 (китайский, упрощенный) gb18030 (китайский, упрощенный) big5 (китайский, традиционный) Big5-HKSCS (китайский, Гонконг) tis-620 (тайский) koi8- r (русский) koi8-u (украинский) iso-ir-111 (кириллица KOI-8) macintosh (MacRoman) windows-1250 (центральная Европа) windows-1251 (кириллица) windows-1252 (западная Европа) windows-1253 (греческий ) windows-1254 (турецкий) windows-1255 (иврит) windows-1256 (арабский) windows-1257 (бал тик обод) | Только при отсутствии |
---|---|---|
тип документа | (обнаруживать автоматически) HTML5 (экспериментальный) XHTML 1.0 StrictXHTML 1.0 TransitionalXHTML 1.0 FramesetHTML 4.01 StrictHTML 4.01 TransitionalHTML 4.01 FramesetHTML 4.01 + RDFa 1.1HTML 3.2HTML 2.0ISO / IEC 15445: 2000 («ISO HTML») XHTML 1.1XHTML + RDFaXHTML Basic 1.0XHTML Basic 1.1XHTML Профиль печати для мобильных устройств 1.0XHTML- XHTML 1.1 плюс MathML 2.0 XHTML 1.1 плюс MathML 2.0 плюс SVG 1.1 MathML 2.0SVG 1.0SVG 1.1SVG 1.1 TinySVG 1.1 BasicSMIL 1.0SMIL 2.0 | Только при отсутствии |
Список сообщений последовательно сгруппировать сообщения об ошибках по типу | ||
Показать источник | Очистите разметку с помощью HTML-Tidy | |
Показать контур | Проверить страницы ошибок | Подробный вывод |
Примечание : загрузка файлов может не работать через Интернет
Проводник в некоторых версиях Windows XP с пакетом обновления 2, см. Наш
информационная страница
на веб-сайте W3C QA.
БЕСПЛАТНЫХ инструментов для поиска проблем с веб-сайтами
В этом сообщении перечислены полезные инструменты, которые помогут вам выявлять и устранять проблемы с веб-сайтами. Эти инструменты просты в использовании и, несомненно, помогут сделать ваш сайт безопасным, быстрым и, конечно же, найденным. Все компоненты сайта одинаково важны. Поэтому вам необходимо проверять свой веб-сайт на предмет безопасности, кодирования, SEO, CDN, хостинга и сетевых проблем с равной важностью.
По большей части, введите URL своего сайта и нажмите «Отправить»! Поднять результаты не займет много времени.Анто не сомневается, что эти инструменты для поиска проблем с веб-сайтом на время займут вас.
# 1 — Безопасность для всех — https://securityforeveryone.com/
«Безопасность для всех» — это инструмент для тестирования безопасности и уязвимостей, который предлагает как бесплатные, так и платные версии. В соответствии со своей миссией они хотят сделать кибербезопасность понятной, доступной и управляемой для всех. Безопасность для всех может проверить бэкдор FTP, пустые пароли MySQL, уязвимости SSH V1, открытые порты, поддомены и разрешенные методы HTTP, и это лишь некоторые из них.Наконец, вы можете доверять советам компании «Безопасность для всех», поскольку они имеют более чем десятилетний опыт работы в индустрии кибербезопасности.
# 2 — Mozilla Observatory — https://observatory.mozilla.org/
Use the Mozilla Observatory — это комплексный инструмент тестирования, который проверяет HTTP, TLS и SSH вашего сайта. Он также показывает результаты других сторонних инструментов, таких как SSL Labs, ImmuniWeb и других. HTTP-тесты включают политику безопасности контента, файлы cookie, совместное использование ресурсов между источниками, закрепление открытого ключа HTTP, строгую безопасность транспорта HTTP, перенаправление, политику реферера и целостность субресурсов X-Content-Type-Options, X-Frame-Options и X-XSS-Защита.
Сканирование веб-сайта Обсерватории Mozilla
# 3 — GTMetrix — https://gtmetrix.com/
Не менее отличный инструмент — GTMetrix. Этот инструмент предоставляет информацию по оптимизации веб-сайта, которая может помочь вам определить, насколько быстро загружается ваша страница. Самое главное, они говорят вам, что вам нужно сделать, чтобы исправить проблемы. Этот инструмент использует Google PageSpeed и Yahoo! Наборы правил YSlow для определения производительности.
Сканирование веб-сайта GTMetrix
# 4 — Ключевые инструменты CDN — https://tools.keycdn.com/
Проведите тест скорости веб-сайта, проверку заголовка HTTP, тест HTTP / 2, тест Brotli и многое другое, используя ключевые инструменты CDN.Кроме того, вы можете выполнить другие тесты, которые помогут вам выполнить тест SSL Freak и TLS Logjam и предоставить информацию о возможных исправлениях.
Ключевые инструменты CDN
# 5 — Тест веб-страницы — https://www.webpagetest.org/
Кроме того, инструмент тестирования веб-страницы выполнит тест скорости вашего веб-сайта из нескольких мест с использованием реальных браузеров и реальных скоростей подключения потребителей. . На первый взгляд, этот инструмент оценивает время первого байта вашего сайта, время активности и сжатие. Но он также предлагает другие ценные анализы.
Тестирование веб-страницы, сканирование
# 6 — Seobility — https://www.seobility.net/en/seocheck/
Инструмент Seobility, несомненно, полезен для SEO. Этот выдающийся инструмент предлагает SEO, ключевые слова и проверку рейтинга. Кроме того, инструмент SEO позволяет вам проверять время отклика страницы, возможность сканирования, описания, качество страницы, медиа, внутренние и внешние ссылки.
Сканирование веб-сайта Seobility
# 7 — Sucuri Site Check — https://sitecheck.sucuri.net/
Не менее важна проверка на наличие вредоносных программ.Используйте этот сканер для проверки веб-сайта на наличие вредоносных программ, вирусов, статуса блокировки, ошибок веб-сайта, устаревшего программного обеспечения и вредоносного кода.
Sucuri Site Check
# 8 — Qualys SSL Labs — https://www.ssllabs.com/ssltest/
Инструмент Qualys SSL Labs, конечно же, будет в этом списке! Выполните углубленный анализ вашего веб-сервера SSL в общедоступном Интернете. Таким образом, этот инструмент определяет поддерживаемые вашим сайтом протоколы SSL, комплекты шифров и пытается имитировать рукопожатие для различных платформ.
Проверка веб-сайта SSL Labs
# 9 — Pentest-Tools — https://pentest-tools.com/website-vulnerability-scanning/
Pentest-Tools обеспечивает сканирование, которое специально определяет уязвимости на вашем сайте. Инструмент сканирует сервер вашего сайта, безопасность связи, заголовки HTTP и многое другое на предмет уязвимостей.
Сканирование веб-сайта Pentest-Tools
# 10 — What My DNS — https://www.whatsmydns.net/
Не менее важным является инструмент What’s My DNS для проверки записей DNS вашего веб-сайта на нескольких серверах имен, расположенных в разных частях Мир.Этот инструмент позволяет вам проверять ваши веб-сайты A, AAAA, MX, CNAME, TXT и другие записи DNS.
Проверка веб-сайта WhatsMyDNS
# 11 — REDBot — https://redbot.org/
REDBot — еще один отличный инструмент, который проверяет ресурсы HTTP, чтобы увидеть, как они будут себя вести, и указывает на проблемы с предлагаемыми улучшениями.
REDBot lint
Завершение
Эти инструменты, несомненно, помогут вам сканировать веб-сайты на наличие проблем. И, безусловно, поможет вам сделать ваш сайт безопаснее, быстрее и доступнее.
Почему бы не опубликовать свой любимый инструмент в комментариях ниже? Anto Online всегда хочет услышать от вас! Новые инструменты будут добавлены в список, если они: бесплатны (или имеют бесплатную версию), просты в использовании, не вызывают спам и представляют ценность.
Вас также может заинтересовать
Об авторах
Редакция Анто любит облако не меньше вас! Каждый член редакционной группы Анто является экспертом в области облачных технологий. Anto Online гордится тем, что помогает коллегам-энтузиастам Cloud.Дайте нам знать, если у вас есть отличная идея по следующей теме! Свяжитесь с Anto Online, если хотите внести свой вклад.
Поддержите дело
Поддержите Anto Online и купите нам кофе. Все возможно с кофе и кодом.
Купите мне кофе
10 ЛУЧШИХ инструментов проверки неработающих ссылок для проверки всего вашего сайта [СПИСОК 2021]
Список лучших бесплатных онлайн-инструментов для проверки неработающих ссылок с подробным сравнением:
Неработающие ссылки — это те ссылки, по которым отображается сообщение об ошибке 404.
Обычно это происходит, когда владельцы веб-сайтов вносят какие-либо изменения или удаляют страницу с веб-сайта. Эти ссылки также называются мертвыми ссылками и не подходят для SEO, а также для человека, который посещает веб-сайт.
Если на веб-сайте доступны неработающие ссылки, это не очень хорошо для сайта, поэтому вы должны разрешить такие ссылки и указать их, чтобы исправить URL-адрес.
Что такое неработающие ссылки?
Неработающие ссылки — это ссылки или гиперссылки, которые ведут на внешние веб-страницы, которых больше нет на этих веб-сайтах.
При нажатии на эти гиперссылки отображается сообщение об ошибке. Неработающие ссылки снижают производительность и посещаемость любого веб-сайта.
Как найти неработающие ссылки?
Неработающие ссылки можно понять, если,
- Сайт постоянно недоступен.
- Веб-страница устарела.
- Переносится в новый домен.
- Он был удален.
Почему возникает проблема неработающих ссылок?
Неработающие ссылки возникают по нескольким причинам общего характера.
Они есть,
- Реформирование сайтов.
- При переходе на другого провайдера.
- Динамические сборки в колледжах и университетах.
- Орфографическая ошибка в ссылке.
- Грамматические ошибки в ссылке.
Как исправить неработающие ссылки?
Неработающие ссылки можно исправить с помощью инструментов, которые мы обсуждали в этой статье. Используя эти инструменты, ваш сайт привлечет больше посетителей, а рейтинг вашего сайта в Google также улучшится.Неработающие ссылки можно исправить без потери информации с веб-сайтов.
Согласно источникам, крупные предприятия, такие как Apple, IBM, Microsoft, также имеют несколько неработающих ссылок на своих веб-сайтах. Приведенная ниже статистика показывает прибл. процент крупных предприятий.
[источник изображения]
Рекомендуемая литература = >> Что такое URI: унифицированный идентификатор ресурса во всемирной паутине
Эти приблизительные статистические данные по крупным предприятиям взяты из вышеупомянутого URL-адреса, и он показывает прибл.ценность битых ссылок после нашего исследования.
Здесь, в этой статье, мы обсудили инструменты, которые помогают поисковой оптимизации и пользователям обнаруживать неработающие ссылки на своих веб-сайтах и удалять такие ссылки. Это наиболее часто используемые инструменты, и некоторые из них также бесплатны.
Обзоры инструментов для проверки верхних неработающих ссылок
Ниже перечислены наиболее часто используемые инструменты проверки мертвых ссылок, доступные на рынке.
Сравнение 5 лучших инструментов для проверки мертвых звеньев
Давайте изучим !!
# 1) Sitechecker
Sitechecker– Обеспечение идеального технического состояния веб-сайта — задача достаточно сложная, но обязательная.
Поисковый робот
Sitechecker проверяет ваш сайт на наличие неработающих ссылок и предоставляет полную информацию о том, как их исправить. Вы можете изучить якоря страниц с ошибками 404 и немедленно исправить их.
Это веб-инструмент, поэтому его можно запускать в любой операционной системе. Более того, сайт на любой CMS можно сканировать.
Характеристики:
- Он сканирует 100 веб-страниц бесплатно.
- Предоставляет исчерпывающий отчет о техническом состоянии веб-сайта: неработающие ссылки, цепочки переадресации, потерянные ссылки, ошибки индексации.
- Обеспечивает SEO-аудит отдельной страницы (бесплатный вариант) и всего сайта (ежемесячная / годовая подписка).
- Показывает ошибки содержимого: проблемы с метатегами, тонкие страницы.
- Создает визуальную структуру сайта за счет внутренних и внешних ссылок.
- Реализует мониторинг веб-сайта после сканирования: может быть предупрежден о любых исправлениях, внесенных на веб-сайт (платная опция).
- Предлагает услуги отслеживания обратных ссылок и проверки рейтинга ключевых слов. (платный вариант)
Минусы:
- Вы можете сканировать только 100 страниц бесплатно.
- Невозможно экспортировать данные из бесплатной подписки.
# 2) Семруш
Semrush — отличное средство проверки обратных ссылок веб-сайтов, которое отображает все ссылки, ведущие на ваш домен. Он предоставляет функции, позволяющие найти все о ваших обратных ссылках и обратных ссылках конкурентов.
Semrush помогает проверять веб-сайт, выполняя глубокое исследование ссылок, проверяя входящие ссылки, анкорные тексты, понимая внешние ссылки ссылающихся веб-сайтов.Он также предлагает ресурсы географического распределения, такие как графики, круговые диаграммы и карту мира.
Характеристики:
- Semrush может проводить глубокий анализ ссылок.
- Он имеет функции для проверки типа обратной ссылки, которые позволят вам узнать, что источник вашего конкурента действительно переходит по ссылкам, соответствующим отраслевым веб-источникам и веб-сайтам, которые заинтересованы в ссылках на ваш контент.
- Он предоставляет виджеты географического распределения, такие как графики и круговые диаграммы, для поиска ответов.
- Он имеет функции, которые позволят вам увидеть уникальный IP-адрес ссылающихся доменов, распределение IP-адресов по странам и т. Д.
Минусы
- Дорого по сравнению с другими.
# 3) W3C Link Checker
W3C Link Checker дает вам выбор при проверке неработающих ссылок на ваших веб-сайтах, например, отображать только сводку, скрывать перенаправления, проверять только документы, заголовки и т. Д.
В результатах отображается состояние ссылки и перечисляются проблемы, обнаруженные при проверке этих неработающих ссылок.Эта бесплатная программа проверки плохих ссылок является частью Quality Web Tool и валидаторов W3C.
Характеристики:
- Он проверяет проблемы в ссылках, привязках и ссылках на всем веб-сайте.
- Можно установить ограничение на глубину погружения инструмента.
- Этот инструмент также можно загрузить и установить в вашей системе.
- Он использует HTML и CSS для получения наилучших результатов сканирования.
Минусы:
- Этот инструмент работает немного медленнее.
- Сообщения об ошибках состоят из длинных слов, чем хотелось бы.
URL: W3C Link Checker
# 4) Онлайн-проверка неработающих ссылок
Online Broken Link — это бесплатный инструмент проверки веб-сайтов, который проверяет ваши веб-страницы на наличие неработающих ссылок, авторизует, обнаруживает и учитывает плохие гиперссылки, если таковые имеются. Он может сканировать неограниченное количество веб-страниц. Работает как для внешних, так и для внутренних ссылок.
Этот инструмент работает в Windows, iOS, Linux и Mac OS.
Характеристики:
- Он может сканировать неограниченное количество страниц как для внешних, так и для внутренних URL-адресов.
- Указывает позицию неверной ссылки в HTML-коде.
- Он замечает ссылки и другие проблемы целостности веб-сайта.
- Он поддерживает поддомены.
Минусы:
- Не совсем бесплатный инструмент.
- Бесплатная версия имеет ограничение в 3000 страниц.
- Количество инструмента будет зависеть от вашего сайта.
URL: Онлайн-проверка ссылок
# 5) Проверка мертвых ссылок
Проверка мертвых ссылок систематически сканирует ваш сайт и обнаруживает все мертвые ссылки, которые мешают работе вашего сайта.
Он может создавать выходные данные HTML для неформальной проверки результатов и может разработать файл кэша ссылок для ускорения выполнения нескольких требований. Средство проверки мертвых ссылок может обнаруживать неработающие ссылки, такие как «Страница не найдена», «Тайм-аут», «Ошибка сервера» и любые другие ошибки, из-за которых веб-страница не отображается.
Характеристики:
- Мертвая ссылка имеет три метода обработки: проверка сайта, множественная проверка и автоматическая проверка.
- Он фильтрует ключевое слово URL-адреса с помощью подстановочных знаков.
- Он может приостанавливать и возобновлять работу в любой период.
- Сканирует несколько ссылок одновременно.
Минусы:
- Ограничение при сканировании страниц.
- Модификация в поддоменах рассматривается как измененный веб-сайт, и, следовательно, ссылки на этих доменах не будут проверяться.
URL: Проверка мертвых ссылок
# 6) Dr. Link Check .com
Dr. Link Checker проверяет все ссылки, которые содержат внутренние и внешние ссылки на другой веб-сайт. Он также может проверять ссылки на изображения, таблицы стилей и другие файлы.
Он проверяет все записи кода HTML и CSS и сканирует весь ваш веб-сайт. Каждая ссылка, созданная Dr. Link Checker, проходит несколько проверок, чтобы убедиться в отсутствии угроз, которые могут нанести вред вашим веб-сайтам.
Характеристики:
- Он сканирует сайт на 1000 ссылок бесплатно.
- Предоставляет сводные отчеты о внутренних, внешних и неработающих ссылках.
- Несколько сканирований на ссылку.
- Вы можете запланировать автоматический запуск проверок в соответствии с вашими требованиями.
Минусы:
- Ограниченное количество страниц можно только сканировать.
- Не совсем бесплатно.
- Даже для базового плана в месяц можно сканировать только 2000 ограниченных ссылок.
URL: DrLinkCheck.com
# 7) Сыщик связи Ксену
Это бесплатный инструмент с открытым исходным кодом для проверки неработающих ссылок на веб-сайтах.
Он автоматически устанавливает ссылку на ваш веб-сайт и начинает сканирование веб-сайта. Это очень просто и удобно. Для сканирования вставьте URL своего веб-сайта, и он начнет проверку неработающих ссылок. Подтверждение ссылки выполняется на изображениях, границах, надстройках, фонах, таблицах стилей, скриптах и апплетах Java.
Вы можете создать отчет в любое время.
Характеристики:
- Это полезно при временных сбоях в сети.
- Он может выполнять файлы размером менее 1 МБ.
- Он поддерживает веб-сайты SSL и карту сайта.
- Ограниченное тестирование URL-адресов FTP, Gopher и почты.
Минусы:
- Несовместимо с системой Windows 32.
- Не имеет графических возможностей WebAnalayzer 2.0.
- Методы сканирования сусликов надежны.
URL: Xenu’s Link Sleuth
# 8) Средство проверки целостности связи
Integrity Checker — бесплатное настольное приложение Mac.
В зависимости от размера вашего веб-сайта этому инструменту может потребоваться время для завершения отчета. У него есть множество вариантов сортировки результатов, и он может проверять только поврежденные ссылки, выбирая опцию на странице отчета.
Также полезно вставлять неработающие ссылки из форм комментариев.Такие параметры, как передача данных, проверка, обработка нескольких сайтов, создание карты сайта, проверка орфографии, доступны в двух подключенных приложениях, то есть Integrity Plus и Scrutiny.
Характеристики:
- Безупречно работает с крупными веб-сайтами без каких-либо задержек.
- Он также проверяет битые изображения.
- Проверить наличие внутренних и внешних ссылок.
- Экспорт отчетов в формате .pdf
Минусы:
- Только для пользователей Mac.
- После проверки неработающих ссылок на заполнение отчета требуется время.
- Для использования Integrity Plus Checker он недоступен для пользователей бесплатно.
URL: Integrity Checker
# 9) Google Webmaster
Google Webmaster — это свободно доступный инструмент, который поддерживает эффективность вашего веб-сайта в результатах поиска. Он подтверждает, что Google может получить доступ к контенту на вашем веб-сайте.
Google Webmaster позволяет создавать новые страницы и сообщения, чтобы Google сканировал и удалял контент, который вы не хотите, чтобы обработчики поисковых систем узнали. Google Webmaster может сохранить ваш веб-сайт, не понимая его присутствия в результатах поиска.
Характеристики:
- Это поможет вам оптимизировать ваш сайт по ключевым словам SEO, зная самые популярные сайты.
- Доступ к информации, которая будет подходить для рекламных кампаний.
- Найдите лучшее видение действий по индексации и сканированию, выполняемых процедурой поисковой системы на вашем веб-сайте.
- Улучшите свою ссылку с помощью кампаний с систематизированными данными о внешних и внутренних ссылках на ваши веб-страницы.
Минусы:
- Аномалии при обновлении данных.
- Удалить ссылку из Google можно только запросом в Google.
- Rank Monitoring влияет, если ваш веб-сайт попадает на первые четыре или пять страниц результатов.
URL: Google Webmaster Tool
# 10) WP Проверка состояния разорванной связи
Это инструмент проверки битых ссылок WordPress, который проверяет подлинность кодов ответа HTTP-статуса всех ссылок и изображений вашего контента.
Он работает путем сканирования вашего контента, удаления ссылок и изображений, отслеживания неработающих ссылок, перенаправлений, отсутствия последующих ссылок и т. Д. Он сканирует веб-сайты с помощью нескольких проверок и настраивает свои собственные результаты.
Характеристики:
- Он запускает искатель в фоновом режиме без каких-либо сеансов.
- Он имеет передовые фильтры и поиск по URL или якорному скрипту.
- Помогает редактировать контент прямо из отчетов сканера, не вставляя его в редактор сообщений.
- В нем есть дополнительные инструменты для работы с URL-адресами для внесения значительных изменений, если присутствуют похожие URL-адреса сообщений.
Минусы:
- Не проверяет всю HTML-страницу, а просто извлекает ссылки и изображения.
- Перед использованием этого подключаемого модуля необходимо отключить брандмауэр.
- Необходимо отключить плагин WP Secure для надлежащего выполнения полного сканирования.
URL: Плагин WP для проверки неработающих ссылок
# 11) Кричащая лягушка
Screaming Frog SEO Spider помогает быстро сканировать и оценивать ваш сайт.
Его можно использовать для сканирования как небольших, так и крупных веб-сайтов. Это помогает просматривать, изучать и фильтровать данные сканирования по мере их сбора.
SEO Spider позволяет передавать такие элементы, как URL-адрес, заголовок страницы, мета-объяснение, подписи и т. Д.в Excel, чтобы его можно было просто использовать в качестве основы для ссылок на SEO.
Характеристики:
- Проверяет обратные ссылки, внутренние и внешние ссылки веб-сайтов для повышения производительности вашего веб-сайта.
- Пользовательский поиск и Пользовательское извлечение доступны для обнаружения определенного выбора текста.
- Он генерирует XML-карты сайта.
- Поддержка Robots.txt для проверки и демонстрации полной производительности сайта.
Минусы:
- Скорость низкая, если веб-сайты очень большие.
- Требуется обучение, чтобы использовать все ресурсы.
- Бесплатная версия может сканировать только 500 страниц.
URL: Кричащая лягушка SEO Spider
# 12) Ahrefs Broken Link Checker
Ahrefs Link Checker инструмент предоставляет подробный отчет, связанный со всеми обратными ссылками на ваш сайт.
Он может понять, с помощью каких средств на вашем сайте ссылки растут или падают. Он поддерживается самой большой базой данных живых обратных ссылок и отличной скоростью сканирования AhrefsBot.Это хороший инструмент для сбора информации о неработающих обратных ссылках в сети.
Характеристики:
- Обратите внимание на обратные ссылки на страницы с неуместным контентом вашего конкурента.
- Находите неработающие внешние ссылки на связанных веб-сайтах с помощью экспорта ссылок.
- Фильтр и классификация обратных ссылок.
- Отображать полное изображение ссылок для подписки и запрета на подписку для любого URL-адреса.
Минусы:
- Невозможно экспортировать графики со страниц.
- Полных результатов SEO не существует.
- Дорого для небольшого стартапа.
- Не бесплатно для пользователей.
URL: Ahrefs Broken Link Checking
Дополнительные инструменты проверки ссылок на веб-сайты, которые следует учитывать
# 13) Ниндзя интернет-маркетинга
Интернет-маркетинг Ninjas — это бесплатный инструмент для проверки ссылок, который помогает проверять неработающие ссылки, файлы изображений, внутренние и внешние ссылки и отправляет подробные отчеты по электронной почте.
Он имеет ограничение в 5 сканирований сайтов на один IP-адрес. IMN также может выбрать от 500 до 1000 страниц для первого сканирования. Благодаря этому нагрузка на сервер будет уменьшена, и, следовательно, будет меньше шансов, что ваш сервер будет перегружен.
URL: Ниндзя интернет-маркетинга
# 14) Link Alarm
Link Alarm — это 14-дневная программа проверки неработающих ссылок веб-сайта. Он предоставляет подробные отчеты и нацелен на повышение производительности вашего сайта.
Этот инструмент можно использовать для автоматической проверки до 100 страниц на неработающие ссылки. Их отчеты призваны улучшить жизнь владельцев сайтов за счет удаления неинтересной информации. Это полезно для интернет-магазинов, университетов, администрации и для всех, кто заботится о своем сайте.
URL: Link Alarm
# 15) Power Mapper SortSite Link Checker
SortSite — отличный инструмент для сканирования, который помогает сканировать все страницы одним щелчком мыши, проверяет весь сайт и находит неработающие ссылки в HTML / CSS, файлах Flash и т. Д.
SortSite проверяет доступность, неработающие ссылки, совместимость с браузером, SEO и другие проблемы с удобством использования. Он доступен бесплатно в течение 30 дней, за которым следует тарифный план в размере 49 долларов в месяц за пользователя.
URL: Power Mapper Link Checker
# 16) Малый инструмент SEO
Small SEO Tool просканирует все веб-страницы и точно покажет результаты на картинке диаграммы вместе с кодом. Это абсолютно бесплатно, поэтому не требует кредитов, программного обеспечения и установки.
Small SEO Tools предлагает такие инструменты, как средства проверки количества ссылок и анализатор ссылок, которые могут помочь вам проверить внутренние и внешние ссылки и обратные ссылки на ваших веб-страницах.
URL: Маленький инструмент SEO
# 17) InterroBot
InterroBot — это инструмент для сканирования веб-сайтов и анализа ссылок. Он оснащен расширенным поиском по полю, что позволяет веб-администраторам запрашивать коды состояния (, пример : 404, 500 и т. Д.), заголовки, основной текст и многое другое.
После идентификации затронутой страницы, изображения или другого связанного ресурса диаграмма документа определяет входящие ссылки на проблемное место. InterroBot работает на рабочем столе, поэтому доступ через брандмауэр или локальный хост не представляет проблемы.
Характеристики:
- Нет фиксированного ограничения на количество проектов или проиндексированных страниц.
- Невероятно быстрый поиск по индексу сайта.
- Работает над разработкой localhost и в защищенных сетях.
- Визуализация на уровне документа позволяет быстро определять неработающие ссылки и зависимости страниц.
Лицензирование без подписки. - Бесплатная персональная версия, доступная для личного / некоммерческого использования.
Минусы:
- Только для Windows 10.
- Отсутствует автоматизированный мониторинг сайта.
Заключение
В этой статье мы обсудили самые популярные инструменты проверки неработающих ссылок веб-сайта, доступные на рынке.
Эти вышеупомянутые инструменты являются наиболее популярными, их функции и цены могут быть доступными в соответствии с потребностями отрасли. Инструменты проверки мертвых ссылок являются самыми быстрыми, легко устанавливаемыми и бесплатными инструментами, доступными для пользователей. Вы можете выбрать любой инструмент по своему усмотрению.
Согласно нашим исследованиям, Link Sleuth Xenu является лучшим выбором для пользователей Windows, а Screaming Frog SEO Spider — после этого. Для пользователей Mac Integrity Tool — лучший выбор для всех типов отраслей.
SEO Website Checker — просканируйте свой сайт сейчас на наличие 14 ошибок SEO
Что такое программа проверки веб-сайтов для SEO и как она работает?
Инструменты проверки
SEO созданы для автоматического сканирования всего, от отдельной веб-страницы до целого веб-сайта. Они имитируют способ сканирования вашего сайта поисковой системой. Это позволяет быстро выявить любые ошибки или области, требующие улучшения.
Siteimprove SEO Checker использует собственный алгоритм, разработанный собственными силами. Он сканирует сайт, выявляет типичные проблемы SEO за секунды, а затем ранжирует их по важности и тому, насколько сложно их исправить.
Почему вам следует использовать SEO-средство проверки веб-сайтов
Платная реклама, социальные сети и другие стратегии цифрового маркетинга направляют трафик на веб-сайты, но большая часть трафика на веб-сайты поступает из поисковых систем. Фактически, SEO обеспечивает в 20 раз больше трафика, чем PPC.Но поисковым системам по-прежнему нужна помощь, чтобы направлять трафик на ваш сайт. Оптимизация SEO вашего сайта предоставляет ключевую информацию поисковым системам, чтобы они могли правильно индексировать и отображать ваши страницы, чтобы вы могли подняться в рейтинге поиска. Но SEO — это постоянно меняющаяся область, и знать, с чего начать, может быть непросто.
Ручной аудит сотен или даже тысяч страниц вашего веб-сайта на предмет проблем с поисковой оптимизацией требует времени, ресурсов и опыта. Поэтому, если вы хотите привлечь больше трафика на свой веб-сайт, а кто этого не делает, использование специального инструмента, который берет на себя всю тяжелую работу за вас, например Siteimprove SEO Checker, — отличное место для начала.
Что именно делает Siteimprove SEO?
Полная версия Siteimprove SEO Website Checker выполняет в общей сложности 70 отдельных проверок, разделенных на 10 категорий:
- Коды ошибок : проверяет коды ответов на ошибки, такие как 404 (страница не найдена) или 500 (внутренняя ошибка сервера).
- Redirects : обнаруживает постоянные перенаправления 301 и проблемы, такие как цепочки перенаправления (когда пользователи автоматически перенаправляются через несколько страниц, чтобы добраться до нужной).
- Ссылки : Здесь выделяются связанные со ссылками проблемы, такие как неработающие внутренние ссылки и исходящие ссылки на небезопасные домены.
- Изображения : это помечает такие проблемы с изображениями, как отсутствие замещающего текста или большие изображения, которые необходимо оптимизировать для более быстрой загрузки страницы.
- Страницы : это широкая категория для почти 20 проверок на уровне страниц. Он помечает такие проблемы, как страницы со слишком большим количеством внутренних ссылок, отсутствующие теги Open Graph и страницы, исключенные из карты сайта.
- Заголовки : проверяет наличие проблем, связанных с заголовками, например, когда на странице отсутствует тег h2 или имеется более одного тега h2.
- Мета : здесь выделяются элементы, связанные с мета-заголовками и мета-описаниями, например, где они отсутствуют или слишком длинные для отображения в Google полностью.
- Mobile : проверяет готовность вашего сайта к мобильным устройствам. Например, он проверяет, быстро ли загружается сайт на мобильных устройствах и можно ли им управлять с помощью сенсорного экрана.
- Читаемость : помечает проблемы с удобочитаемостью, например, содержание, которое трудно понять, или слишком тонкие страницы (количество слов меньше 500).
- Другое : эта всеобъемлющая категория сканирует 14 дополнительных средств блокировки SEO, таких как отсутствующий файл robots.txt, недружелюбные для пользователя URL-адреса и страницы, которые загружаются слишком долго.
Проверьте свой сайт на SEO с помощью Siteimprove бесплатного средства проверки SEO
SEO является абсолютной необходимостью для вашего веб-сайта, но со всеми его сложностями и отраслевым жаргоном — исследованием ключевых слов, обратными ссылками, оптимизацией контента, анализом конкурентов и т. Д. Может быть трудно понять, на чем сосредоточить свои усилия для максимального воздействия.Итак, прежде чем вы погрузитесь в суть дела, неплохо узнать, в каком положении находится ваш веб-сайт, чтобы вы могли легко расставить приоритеты для своих проблем с поисковой оптимизацией.
Используйте Siteimprove SEO Checker для проверки любой страницы вашего сайта на наличие распространенных средств блокировки SEO, разделенных на четыре основные категории SEO: техническая, информационная, пользовательская и мобильная.
- Посмотрите свою уникальную страницу Оценка SEO
- Получите электронное письмо с подробным описанием ваших результатов, чтобы поделиться с вашей командой
- Получите мгновенный снимок проблем с поисковой оптимизацией вашей страницы — с разбивкой по категориям
- Прочтите четкое объяснение того, как каждая проблема SEO влияет на вашего пользователя
Как читать отчет Siteimprove SEO Website Checker
Отчет, который вы получаете от средства проверки веб-сайтов, дает вам оценку SEO верхнего уровня вместе с рекомендациями по дальнейшим действиям.
Оценка SEO — это общий показатель того, насколько здоров ваш сайт с точки зрения SEO. Однако одного этого счета недостаточно, чтобы вы могли действовать осмысленно. Чтобы сделать что-то действенным, вы получите подробный список проблем, а также четкие объяснения того, что они означают и как их исправить.
Чтобы помочь вам решить эти проблемы, проблемы сгруппированы в четыре категории:
- Технический
- Содержание
- Пользовательский опыт
- мобильный
Для каждого из них вы получите рейтинг важности (насколько важно исправлять) и оценку сложности (сколько усилий и технических знаний необходимо).
Что оптимизировать с помощью программы проверки SEO
То, что вам нужно будет оптимизировать, будет зависеть от вашего конкретного сайта и его текущего состояния SEO.
Вообще говоря, вам нужно решать вопросы в следующем порядке приоритета:
- Устраните все серьезные технические проблемы, которые мешают поисковым системам сканировать и индексировать ваш сайт. Пока эти проблемы не будут решены, большинство других ваших усилий по поисковой оптимизации вряд ли окажут желаемый эффект.
- Устраните проблемы, связанные с контентом, поскольку посетители приходят на ваш сайт в первую очередь.
- Устраните проблемы взаимодействия с пользователем, которые мешают пользователям легко перемещаться по вашему сайту и находить то, что они ищут.
- Устраните любые проблемы с мобильными устройствами, чтобы пользователи смартфонов и планшетов могли легко использовать ваш сайт.
Не волнуйтесь: вам не нужно ничего запоминать. Siteimprove SEO Website Checker предоставит вам список приоритетных проблем с предложениями по улучшению, так что вы никогда не сомневаетесь в том, что вам следует решить в первую очередь.
Как отслеживать прогресс SEO
Владельцы веб-сайтов, стремящиеся улучшить свой органический трафик, должны будут отслеживать несколько показателей. Как правило, вам нужно отслеживать как минимум следующее:
- Рейтинг страницы результатов поисковой системы (SERP) : На каких позициях отображаются ваши страницы по целевым ключевым словам.
- Обычные показы и клики : Хотите знать, сколько людей видели ваши страницы, когда выполняли поиск, и сколько из них перешли на ваш сайт? Google предоставляет вам эту информацию через свою консоль поиска, а у Bing есть Инструменты для веб-мастеров.
- Обычные посетители вашего сайта : Как ваш органический трафик изменился с течением времени? Откуда приходят ваши обычные посетители и какие устройства они используют? Какие страницы они посещают? Как все это соотносится с тем, кого вы намеревались привлечь и что вы хотели, чтобы они делали на своем сайте?
Эти показатели отлично подходят для измерения результата или отдачи от ваших усилий по поисковой оптимизации. Но не менее важно посмотреть на входные данные, влияющие на эти показатели. Именно для этого и предназначена программа проверки веб-сайтов для SEO.Он направлен на то, чтобы помочь вам исправить проблемы с сайтом, которые вы можете контролировать, чтобы в конечном итоге вы заметили улучшение ваших ключевых показателей SEO.
Таким образом, Siteimprove SEO Website Checker дополняет вашу стратегию SEO, давая вам четкую оценку SEO, план внедрения и способ отслеживать ваш прогресс.
Siteimprove SEO Проверка веб-сайтов FAQ:
Сколько времени нужно, чтобы получить мой отчет о поисковой оптимизации?
Менее 60 секунд!
После того, как вы введете URL-адрес страницы, программа проверки веб-сайтов SEO автоматически просканирует содержимое этой веб-страницы.В течение одной минуты вы сможете увидеть свой рейтинг SEO и просмотреть бесплатный отчет в браузере.
Siteimprove также отправит бесплатную копию этого отчета прямо на вашу электронную почту, чтобы вы могли использовать ее для дальнейшего использования.
Бесплатная ли программа Siteimprove SEO для проверки веб-сайтов?
Да. Это совершенно бесплатно, чтобы пройти проверку SEO вашей веб-страницы. Все, что вам нужно предоставить, — это URL-адрес сайта и адрес электронной почты, на который вы хотите отправить отчет о поисковой оптимизации.
Сколько тестов выполняет программа проверки веб-сайтов Siteimprove SEO?
Бесплатная программа Siteimprove SEO Checker выполняет в общей сложности 14 отдельных тестов для выявления наиболее распространенных проблем с поисковой оптимизацией.
Для тех, кому нужен более надежный инструмент, полная версия Siteimprove SEO сканирует весь ваш сайт на предмет более 70 проверок SEO.
.