• Программы и скрипты Netpeak Spider

    • Автор темы MirSliva Bot
    • Дата начала
    • 710
    Img

    Программа «Netpeak Spider» — уникальный инструмент, предназначенный для сканирования и анализа сайта с помощью собственного робота.

    сканирование сайтов и выгрузка основных SEO-параметров страниц с помощью собственного робота;
    поиск ошибок, битых ссылок, неправильных редиректов, дубликатов title, description, keywords и т.д.;
    анализ входящих и исходящих внутренних ссылок для каждой страницы сайта;
    расчёт внутреннего PageRank;
    гибкие настройки сканирования и экспорт данных в формате Excel;
    всё это бесплатно!
    Цитата

    Netpeak Spider предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота. В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.

    Гибкие настройки сканирования позволяют включать/отключать:

    учёт параметризованных и якорных ссылок, изображений и js-файлов;
    использование файла robots.txt при сканировании;
    добавление в таблицу страниц на поддоменах сканируемого сайта.
    Список параметров страниц, анализируемых программой «Netpeak Spider»:

    URL – адрес страницы.

    Глубина – уровень расположения страницы относительно главной.

    LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.

    Ответ – код состояния HTTP в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).

    Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.

    Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.

    Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.

    robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.

    MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.

    Редиректы – количество перенаправлений со страницы.

    Заголовки (H1) – количество заголовков первого уровня.

    Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.

    Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.

    Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.

    Внешние ссылки – количество ссылок с данной страницы на другие сайты.

    PR – расчёт внутреннего показателя PageRank текущей страницы.

    PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.

    Дубли по Title – определяются группы страниц с дублирующимся тегом "title".

    Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".

    Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".

    Скачать:


     
    • Мне нравится
    Реакции: HekuMo, Dispas, maxleo и 2 других
  • Сверху