SEO-программа Netpeak Spider

Netpeak Spider

Программа «Netpeak Spider» — уникальный инструмент, предназначенный для сканирования и анализа сайта с помощью собственного робота.

  • сканирование сайтов и выгрузка основных SEO-параметров страниц с помощью собственного робота;
  • поиск ошибок, битых ссылок, неправильных редиректов, дубликатов title, description, keywords и т.д.;
  • анализ входящих и исходящих внутренних ссылок для каждой страницы сайта;
  • расчёт внутреннего PageRank;
  • гибкие настройки сканирования и экспорт данных в формате Excel;
  • всё это бесплатно!

Netpeak Spider предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота. В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.

Гибкие настройки сканирования позволяют включать/отключать:

  • учёт параметризованных и якорных ссылок, изображений и js-файлов;
  • использование файла robots.txt при сканировании;
  • добавление в таблицу страниц на поддоменах сканируемого сайта.

Мы собираем отзывы по почте или в этой статье на нашем блоге. Также ведётся обсуждение программы на форуме Searchengines.ru.

Список параметров страниц, анализируемых программой «Netpeak Spider»:

URL – адрес страницы.
Глубина – уровень расположения страницы относительно главной.
LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
Ответ – код состояния HTTP в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).
Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.
robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.
Редиректы – количество перенаправлений со страницы.
Заголовки (H1) – количество заголовков первого уровня.
Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.
Внешние ссылки – количество ссылок с данной страницы на другие сайты.
PR – расчёт внутреннего показателя PageRank текущей страницы.
PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.
Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".
Текущая версия программы: 1.0.13.2
Версия Дата релиза Комментарий
1.0.13.228.08.2014
  • исправлен и доработан алгоритм определения бесконечных редиректов;
  • исправлена проблема с обработкой неверно указанной кодировки в теге meta;
  • исправлено падение приложения при попытке загрузки пустого файла настроек;
  • исправлено исчезновение элементов интерфейса основной страницы настроек при наведении мыши на заголовок таба;
  • исправлена и дополнена обработка ссылок, полученных со страниц сайта;
  • исправлена проблема, не позволявшая приложению работать с сайтами, использующими протокол HTTPS.
1.0.13.121.03.2014
  • исправлена проблема с отображением шрифтов возникавшая на некоторых системах.
1.0.13.019.03.2014
  • исправлена критическая ошибка в определении типа содержимого страницы;
  • исправлена ошибка в обработке robots.txt;
  • исправлено сужение поля URL при сворачивании приложения;
  • исправлено неправильное определение статусов части ссылок при работе приложения в WinXP;
  • исправлены проблемы с отображением интерфейса в WinXP;
  • улучшена обработка ссылок: URL-encoded последовательности в ссылках теперь приводятся к верхнему регистру;
  • улучшена система хранения/загрузки настроек;
  • изменён состав используемых библиотек;
  • добавлен новый документ third-party.txt (информация о сторонних библиотеках).
1.0.12.705.02.2014
  • исправлен баг в обработке относительных ссылок;
  • исправлен баг в обработке некорретных ссылок;
  • исправлено несколько багов связанных с обработкой robots.txt;
  • исправлена проблема с исчезновение горизонтального скролл-бара при растягивании колонки "URL";
  • улучшена обработка редиректа стартового урла на себя с/без www.
1.0.12.629.01.2014
  • исправлено определение "бесконечных" редиректов;
  • исправлена ошибка в обработке тега <base>;
  • добавлена корректная обработка ответов сервера со статусом 407 (ProxyAuthRequired);
  • исправлена подсветка ссылок со значением noindex тега <meta> (robots).
1.0.12.503.01.2014
  • улучшена обработка редиректов;
  • доработана обработка редиректов на главной;
  • доработано определение бесконечных редиректов;
  • доработано автозаполнение строки URL;
  • доработана обработка относительных ссылок;
  • активация теперь является обязательной.
1.0.12.314.11.2013
  • добавлена визуальная индикация процесса сканирования;
  • улучшена работа с robots.txt: теперь можно указать, что не нужно сканировать страницы которые закрыты файлом robots.txt;
  • исправлена ошибка в обработке редиректов приводившая к зацикливанию сканирования;
  • исправлено зацикливание сканирования при попытке просканировать нерабочий веб-сайт;
  • исправлены ошибки с отображением информации о robots.txt при сканировании по Google;
  • улучшена обработка GET-параметров ссылок;
  • улучшена обработка базовых URLов;
  • исправлены ошибки в английской локализации.
1.0.11.1230.10.2013
  • исправлен баг с неправильной обработкой редиректов;
  • исправлен баг с неправильной обработкой robots.txt;
  • улучшена обработка ссылок;
  • улучшено определение кодировки страниц;
  • улучшено определение внутренних ссылок.
1.0.11.904.10.2013
  • исправлена проблема с автообновлением.
1.0.11.803.10.2013
  • исправлен баг в активации.

Понравилась программа? Поделитесь ей в социальных сетях или, если можете, переведите средства разработчикам:

Netpeak Soft Community

Нашли неисправность в наших разработках или просто хотите связаться с нами? Напишите на community.netpeak.net!

Отзывы

Программу Netpeak Spider использует большое количество оптимизаторов, а особенную популярность она получила с выходом новой версии с улучшенным интерфейсом. Рекомендуем ознакомиться с одним из обзоров на популярном блоге Сергея Кокшарова Devaka.ru. В числе других отзывов:

Другие разработки Netpeak

Наши особенности

  • Мы чётко фокусируемся на предоставлении услуг в сфере SEO и PPC, чтобы стать лучшими в мире в умении добиваться результата от этих инструментов интернет-маркетинга
  • Мы предлагаем уникальный на рынке продукт — [SEO 2.0]
  • Мы ориентированы показать положительную отдачу от вложенных средств в SEO и PPC
  • Более 1000 проектов доверили нам свои сайты
  • Netpeak стремится стать ведущим международным агентством на мировой арене
  • Мы разработали уникальный сервис «Личный Кабинет клиента Netpeak», который помогает бизнесу принимать решения, основываясь на чётком наборе ключевых показателей эффективности

Мы делаем прибыльнее бизнес наших клиентов

Новое на блоге

24.10.2014

89% предпринимателей не тестируют свои продающие тексты. О том, что и как нужно тестировать, рассказал в своем гостевом посте директор Студии эффективных текстов Владимир Руков.

23.10.2014

О том, как казахстанские семинары Netpeak переросли в первую кейс-конференцию «Online Advertising: Контекстная реклама и SEO для бизнеса», читайте в этом посте.

22.10.2014

Главный редактор Search Engine Roundtable и известный SEO-эксперт Барри Шварц поделился с читателями блога Netpeak мыслями об инновациях поискового гиганта, ошибках Ecommerce и развитии рынка SEO.

17.10.2014

Многие считают, что привлечение дешевого и качественного трафика на новостной портал — миф, а мы доказали, что это — реальность. Читайте подробности в кейсе PPC-специалиста Александры Бурлаковой.