Хотите узнать раньше всех и получить бесплатный доступ?


Mail


Скрипт проверки по ссылке - check-mail.txt.

При запуске на сервере сохранить с .php

Sitemap.xml script

Способ #1

  1. Скачать скрипт sitemap-check.js;
  2. Загрузить скрипт на сайт;
  3. Открыть сайт;
  4. Нажать F12 в Google Chrome;
  5. Прописать в Console checkSitemapXml();
  6. Дождаться результат обработки файла sitemap.xml.

Способ #2

  1. Нажать F12 в Google Chrome;
  2. Прописать в Console:
    var checkSitemapXml = function() {
        var urls = [],
            code2x = {},
            code3x = {},
            code4x = {},
            code5x = {};
        $.get("/sitemap.xml").success(function(response) {
            var $xml = $(response);
            var pages = $xml.find("loc");
            console.log("parsed " + pages.length + " URLs");
            pages.each(function(i, el) {
                var url = $(el).text();
                urls.push(url);
            });
            checkResponseCode();
        });
        function checkResponseCode() {
            if (urls.length === 0) {
                console.log("Status: \n2xx: " + _.size(code2x));
                if (_.size(code3x) > 0) {
                    console.log("3xx: \n" + JSON.stringify(code2x, null, 4));
                }
                if (_.size(code4x) > 0) {
                    console.log("4xx: \n" + JSON.stringify(code4x, null, 4));
                }
                if (_.size(code5x) > 0) {
                    console.log("5xx: \n" + JSON.stringify(code5x, null, 4));
                }
                return;
            }
            var url = urls.shift();
            $.get(url).complete(function(jqXHR) {
                if (jqXHR.status < 300) code2x[url] = jqXHR.status;
                else if (jqXHR.status < 400) code3x[url] = jqXHR.status;
                else if (jqXHR.status < 500) code4x[url] = jqXHR.status;
                else if (jqXHR.status >= 500) code5x[url] = jqXHR.status;
                console.debug(urls.length);
                checkResponseCode();
            });
        }
    };
    checkSitemapXml()
  3. Дождаться результат обработки файла sitemap.xml.

Bot .htaccess instructions

Инструкция запрещает ботам парсить сайты на уровне сервера. Носит не рекомендательный харакетер как robots.txt, а серверный запрет на обработку запросов от ботов. Прописать в .htaccess:

Options FollowSymLinks ExecCGI
RewriteEngine On
RewriteBase /
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^[^4]* /404 [L,S=4000]

	RewriteEngine on
	RewriteCond %{HTTP_USER_AGENT} ".*AhrefsBot.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*MJ12bot.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*rogerBot.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*MegaIndex\.ru/2\.0.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*YandexBot.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*ia_archiver.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*bingbot.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*Baiduspider.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*archive\.org_bot.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*BLEXBot.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*LinkpadBot.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*spbot.*" [OR]
	RewriteCond %{HTTP_USER_AGENT} ".*Serpstatbot.*"
	RewriteRule ".*" "-" [F]

Проверка через расширение для Google Chrome Restlet

Сбор доменных имен из выдачи Bing

Провести постранично сбор доменных имен с поисковой выдачи Bing можно использую следующий алгоритм действий:

  1. Отправить в Bing интересующий запрос. Например, для поиска сайтов на одном IP можно использовать оператор ip:x.x.x.x;
  2. Нажать F12 в Google Chrome;
  3. Прописать в Console скрипт bing.js и нажать Enter.

Сбор доменных имен из выдачи Yandex

Провести постранично сбор доменных имен с поисковой выдачи Yandex можно использую следующий алгоритм действий:

  1. Отправить в Yandex интересующий запрос.
  2. Нажать F12 в Google Chrome;
  3. Прописать в Console скрипт yandex.js и нажать Enter.

Service for website search engine optimize

My seacrh engoptimization experience of more than 10 years.

Founder of Indexoid.

I known as a specialist search engine optimization. When promoting use of technology predominantly white search optimisation of a website and known as a technical SEO and loves doing technical SEO audits as well as troubleshooting issues.

Engaged in website promotion

Conference organizer.

Google partner

Technical skills featuring search engine optimization.

Search engine optimization (SEO)

Contextual advertising

Social Media Marketing

Display advertising (RTB)

Technology and development

Monetization and earnings

Web Analytics

Seminars and conferences

Startups