SEO-программа Netpeak Spider

Netpeak Spider

Программа «Netpeak Spider» — уникальный инструмент, предназначенный для сканирования и анализа сайта с помощью собственного робота.

  • сканирование сайтов и выгрузка основных SEO-параметров страниц с помощью собственного робота;
  • поиск ошибок, битых ссылок, неправильных редиректов, дубликатов title, description, keywords и т.д.;
  • анализ входящих и исходящих внутренних ссылок для каждой страницы сайта;
  • расчёт внутреннего PageRank;
  • гибкие настройки сканирования и экспорт данных в формате Excel;
  • всё это бесплатно!

Netpeak Spider предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота. В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.

Гибкие настройки сканирования позволяют включать/отключать:

  • учёт параметризованных и якорных ссылок, изображений и js-файлов;
  • использование файла robots.txt при сканировании;
  • добавление в таблицу страниц на поддоменах сканируемого сайта.

Мы собираем отзывы по почте или в этой статье на нашем блоге. Также ведётся обсуждение программы на форуме Searchengines.ru.

Список параметров страниц, анализируемых программой «Netpeak Spider»:

URL – адрес страницы.
Глубина – уровень расположения страницы относительно главной.
LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
Ответ – код состояния HTTP в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).
Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.
robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.
Редиректы – количество перенаправлений со страницы.
Заголовки (H1) – количество заголовков первого уровня.
Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.
Внешние ссылки – количество ссылок с данной страницы на другие сайты.
PR – расчёт внутреннего показателя PageRank текущей страницы.
PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.
Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".
Текущая версия программы: 1.0.13.2
Версия Дата релиза Комментарий
1.0.13.228.08.2014
  • исправлен и доработан алгоритм определения бесконечных редиректов;
  • исправлена проблема с обработкой неверно указанной кодировки в теге meta;
  • исправлено падение приложения при попытке загрузки пустого файла настроек;
  • исправлено исчезновение элементов интерфейса основной страницы настроек при наведении мыши на заголовок таба;
  • исправлена и дополнена обработка ссылок, полученных со страниц сайта;
  • исправлена проблема, не позволявшая приложению работать с сайтами, использующими протокол HTTPS.
1.0.13.121.03.2014
  • исправлена проблема с отображением шрифтов возникавшая на некоторых системах.
1.0.13.019.03.2014
  • исправлена критическая ошибка в определении типа содержимого страницы;
  • исправлена ошибка в обработке robots.txt;
  • исправлено сужение поля URL при сворачивании приложения;
  • исправлено неправильное определение статусов части ссылок при работе приложения в WinXP;
  • исправлены проблемы с отображением интерфейса в WinXP;
  • улучшена обработка ссылок: URL-encoded последовательности в ссылках теперь приводятся к верхнему регистру;
  • улучшена система хранения/загрузки настроек;
  • изменён состав используемых библиотек;
  • добавлен новый документ third-party.txt (информация о сторонних библиотеках).
1.0.12.705.02.2014
  • исправлен баг в обработке относительных ссылок;
  • исправлен баг в обработке некорретных ссылок;
  • исправлено несколько багов связанных с обработкой robots.txt;
  • исправлена проблема с исчезновение горизонтального скролл-бара при растягивании колонки "URL";
  • улучшена обработка редиректа стартового урла на себя с/без www.
1.0.12.629.01.2014
  • исправлено определение "бесконечных" редиректов;
  • исправлена ошибка в обработке тега <base>;
  • добавлена корректная обработка ответов сервера со статусом 407 (ProxyAuthRequired);
  • исправлена подсветка ссылок со значением noindex тега <meta> (robots).
1.0.12.503.01.2014
  • улучшена обработка редиректов;
  • доработана обработка редиректов на главной;
  • доработано определение бесконечных редиректов;
  • доработано автозаполнение строки URL;
  • доработана обработка относительных ссылок;
  • активация теперь является обязательной.
1.0.12.314.11.2013
  • добавлена визуальная индикация процесса сканирования;
  • улучшена работа с robots.txt: теперь можно указать, что не нужно сканировать страницы которые закрыты файлом robots.txt;
  • исправлена ошибка в обработке редиректов приводившая к зацикливанию сканирования;
  • исправлено зацикливание сканирования при попытке просканировать нерабочий веб-сайт;
  • исправлены ошибки с отображением информации о robots.txt при сканировании по Google;
  • улучшена обработка GET-параметров ссылок;
  • улучшена обработка базовых URLов;
  • исправлены ошибки в английской локализации.
1.0.11.1230.10.2013
  • исправлен баг с неправильной обработкой редиректов;
  • исправлен баг с неправильной обработкой robots.txt;
  • улучшена обработка ссылок;
  • улучшено определение кодировки страниц;
  • улучшено определение внутренних ссылок.
1.0.11.904.10.2013
  • исправлена проблема с автообновлением.
1.0.11.803.10.2013
  • исправлен баг в активации.

Понравилась программа? Поделитесь ей в социальных сетях или, если можете, переведите средства разработчикам:

Netpeak Soft Community

Нашли неисправность в наших разработках или просто хотите связаться с нами? Напишите на community.netpeak.ua!

Отзывы

Программу Netpeak Spider использует большое количество оптимизаторов, а особенную популярность она получила с выходом новой версии с улучшенным интерфейсом. Рекомендуем ознакомиться с одним из обзоров на популярном блоге Сергея Кокшарова Devaka.ru. В числе других отзывов:

Другие разработки Netpeak

Наши особенности

  • Мы чётко фокусируемся на предоставлении услуг в сфере SEO и PPC, чтобы стать лучшими в мире в умении добиваться результата от этих инструментов интернет-маркетинга
  • Мы предлагаем уникальный на рынке продукт — [SEO 2.0]
  • Мы ориентированы показать положительную отдачу от вложенных средств в SEO и PPC
  • Более 1000 проектов доверили нам свои сайты
  • Netpeak стремится стать ведущим международным агентством на мировой арене
  • Мы разработали уникальный сервис «Личный Кабинет клиента Netpeak», который помогает бизнесу принимать решения, основываясь на чётком наборе ключевых показателей эффективности

Мы делаем прибыльнее бизнес наших клиентов

Новое на блоге

12.09.2014

Как построить успешную тактику продвижения своего видеоконтента и покорить алгоритм YouTube.

10.09.2014

Об особенностях реализации интернет-проектов в Великобритании, России и Казахстане и фишках успешного ведения бизнеса онлайн мы побеседовали с Владимиром Меркушевым — руководителем интернет-проектов Kolesa.kz.

08.09.2014

В новом инсайдерском посте мы решили рассказать, как Netpeak выбирал подходящую платформу для проведения вебинаров, и что из этого вышло.