Как проверить индексацию сайта в Яндекса и Google? Насколько важна проверка индексации сайта?

    Опубликовано: 29 сентября, 2012

Привет всем моим читателям блога jonyit.ru.  Многие блоггеры часто парятся по поводу индексации страниц, когда я этому не придаю особого значения, тем не менее, я решил написать на эту тему статью, так как есть спрос будет и предложение.

Что же такое индексация сайта в яндексе и google – это процесс, в котором робот поисковой системы сканирует сайт на наличие новых страниц с целью скорей вогнать их в индекс. То есть когда вы публикуете новую статью на вашем блоге это ещё не означает, что её можно найти через поисковик. Необходимо время, для того чтобы ваш блог посетил поисковой робот и забрал статью  собой в индекс.  Когда на самом деле существует куча способов, как ускорить индексацию сайта  искусственно, самому привлекая  поискового робота.

Как ускорить индексацию сайта

Как я уже говорил индексации я не придаю особого значении, мне лично пофигу сегодня статья войдёт в индекс или завтра всё равно трафика от этого больше не будет. Но честно признаться, вопрос как ускорить индексацию страниц меня тоже волнует, потому что свой блог я часто продвигаю статейными прогонами и покупкой ссылок, поэтому для меня важна загнать все страницы в индекс, на которых имеется ссылка на мой блог, так как от этого уже и зависит прибавиться мне трафик на блог или нет.

Вебмастера которые зарабатывают деньги на продажи ссылок постоянно занимаются  этим вопросом, потому что чем раньше статья залезет в индекс, тем быстрее зазвенит их webmoney киппер=)

И в определённый момент они пришли к выводу, что существует 6 правил как ускорить индексацию сайта, с которыми  я бы хотел с вами поделиться. На первый взгляд они могут показаться слишком простыми, но тем не менее их стоит взять во внимании на своём блоге.

  1. Частое обновления контента является самым простым и естественным способом заставить поискового робота чаще посещать ваш ресурс. Опубликовав статью робот будет заходить к вам в гости ещё 2-3 дня подряд, если в течении этих дней не будет нового контента, то робот зайдет в следующий раз примерно через неделю посмотреть не обновились ли старые страниц, вдруг появились новые комментарии или автор снизилась плотность ключевых слов и т.д.
  2. Каждый новый пост нужно обязательно добавить во все социальные сети к которым у вас есть доступ, более того ваш  аккаунт должен быть живой то есть постоянно обновляться, это является признаком того, что робот  частенько посещает вашу страницу в соц. сети и переходит по ссылкам на ней. Поэтому после публикации поста я сразу же его ретвичу, google плюсю +1 и добавляя ссылку на свою страницу в контакте. Буквально через 30 минут я вижу, что пост уже в индексе.
  • Если ваш блог ещё молод и горяч, то поисковой робот врядли будет заходить к вам каждый день, так только если раз месяц.  На этом этапе вам нужен более серьёзный метод это добавление ссылки во все существющие адурилки (add url) об этом более подробно я писал в статье «как добавить сайт в поисковики ».
  • Сейчас каждая cms имеет в себе функцию оповещение сервисов поисковых систем пингбэков или RP2. И wordpress далеко не исключения,  зайдя  в админке «Настройки –> Написание –> Сервисы» на странице вы увидите графу куда можно поставить ссылки поисковых систем которые будут оповещать ваш блог о выходе нового поста. Сервисов с пингбэками достаточно много вот вам вполне исчерпывающий список:

    Но прошу обратить внимание, что они могут нагружать хостинг и если он у вас виртуальный да ещё и слабенький. В таком случае я считаю, стоит добавить всего два-три RPС2 популярных поисковых систем. Вот их список:

    blogsearch.google.ru/ping/rpc2
  • Вот скрин куда это всё вставлять:

    5.  Плагин для создание карты сайта под гугл Google XML Sitemaps, тоже в какой-то степени ускоряет процесс индексации сайта. Как вы знаете, чем больше плагинов на блоге, тем больше он тормозит. Поэтому я советую вам держать этот плагин постоянно выключенным, включать его когда вы публикуете новую статью, чтобы он перестраивал карту сайта и отправлял её в google.

    6. Грамотная внутренняя перелинковка всегда положительно сказывается на индексации страницы. Если все статьи линкованы между собой циклически, то поисковой робот просто просто не сможет найти выход с вашего блога, таким образом вы сможете задержать его более значительное время. Более исчерпывающую информацию вы можете найти вот в этой статье.

    Как проверить индексацию сайта в Яндексе, Google и др. поисковых системах

    Проверить индексацию сайта можно с помощью различных сервисов, благо в Интернете их пруд пруди.

    Самый простой способ зайти в свой аккаунт веб-мастера яндекса или google и там посмотреть количество статей в поиске. К примеру, в яндексе на главной странице веб-мастера, когда вы выбираете сайт вам показываеться полная информация, сколько страниц каждого сайта сейчас находиться в индексе. Вот скриншот:

    www.raskruty.ru/tools/index/. Он как раз имеет такой инструмент, как проверять сразу несколько страниц на вход в индекс поисковых систем Яндекс и Google.

    Значит проходим

    по ссылке, что я дал выше и вставляем список урлов которые мы хотим проверить на вхождение в индекс:

    Далее просто жмём кнопку проверить индексацию сайта. ждём несколько секунд и получаем следующий результат:

    Как видите сервис показывает нам имеются ли в индексе страницы в обеих поисковых системах.

    Вот этих двух спсобов вам вполне хватит, конечно существует куча подобных сервисов, но я не вижу смысла описывать каждый, когда эти два выполняют поставленную задачу.

    Как запретить индексацию сайта через robots.txt

    Зачем  это нужно? Как зачем? Может у вас на блоге есть какие-нибудь продажные страницы или страница где вы поздравляете пользователя с первым комментарием или подарок для подписчиков. В общем, то что не должно находиться в поисковой выдаче вы можете скрыть от поискового робота закрыв от него эти страницы в robots.txt

    Всего лишь вставьте в него следующий код:

    • Disallow: ваш сайт.ру/ненужная страница
    • Disallow: ваш сайт.ру/вторая ненужная страница

    Я надеюсь вы поняли, что  не нужно вставлять в буквальном смысле код? Сначала вставьте урлы, которые вы хотите скрыть от роботов. Кстати как с помощью robots.txt убрать дубли страниц я писал здесь .

    Почему страницы могут вылетать из индекса?

    Бывает, что яндекс в один прекрасный момент выкидывает половину страниц из индекса, а потом дня через два возвращает их на место, это нормально не беспокойтесь) Но на самом деле за этим всем кроються кое-какие причины. Время от времени каждый веб мастер должен проводить хотя бы небольшой технический аудит своего сайта с целью выявления технических ошибок, которые могут повлечь за собой подобную беду.

    Ошибка № 1 – Излишек внешних ссылок

    Я часто провожу анализ блогов и постоянно замечаю одни и те же технические проблемы.  Авторы  или не берут во внимание или забывают скривать внешние ссылки в сайдбаре, футере и даже в блоках где размещены кнопки социальных сетей. Таким образом, получаеться, что у автора блога каждая страница несёт в себе по 3-4 внешние ссылки.  Только представьте себе сколько веса утекает в пустую? Неудивительно, что они не могут раскрутить свой блог. Только начни продавать постовые и вообще АГС схватишь=)

    Запомните! Каждая ваша статья не должна содержать более 2-3 внешних ссылок, так что если у вас открыта для индексации ссылка на твитер или подписку на блог немедленно закройте, более того вес же утекает, страницы плохо ранжируется, вылетают из индекса времся от времени. А проблема то всего в  маленьком техническом недочёте.

    Ошибка № 2 -  Спамность ключевыми словами в связи с малым количеством контента

    Если с внешними ссылками всё впорядке, то теперь начинаем анализировать контент. Я не раз в своих текстах говорил, что каждая ваша статья должна быть 100% релевантная ключевому слову. а так же КС должно повторяться в тексте от двух до четырех раз в зависимости от объёма контента. Это конечно всё хорошо, но если  ваши тексты все имеют маленький объём примерно 2000к символов. Что тогда делать. – вы спросите меня. В таком случае страницу не нужно затачивать под ключевое слово и делать релевантным, только в том случае если страницы выпадают из индекса.

    Вообще  если есть возможность нужно увеличить количество текста на странице, а так же снизить плотность ключевых слов.

    Ошибка № 3 – битые ссылки

    Под битыми ссылками подразумеваться не только те ссылки, которые вы вставляете в своих текстах, но учитывать нужно ещё и комментарии. По большому счёту все беды идут от горе комментаторов, которые забрасывают свои блоги тем самым оставляя у нас в комментариях не рабочую ссылку на свой блог. Хотя она и закрыта в noffolow поисковики всё равно видят, что она ни куда не ведёт  тем самым к странице, на которой есть этот комментарий, поисковики начинают относиться с недоверием, ну а если по всему блогу такая беда, то уж извините выкинуть половину страниц из индекса сам Бог велел.

    Такая проблема совсем недавно наблюдалась на блоге Александра Борисова. Мой совет отслеживать битые ссылки на своём блоге. Не спрашивайте меня как это делать… потому на эту тему я наверно напишу отдельную статью, поэтому советую подписаться на обновления блога.

    Ошибка № 3 –  Открытые служебные страницы

    И наконец нужно проверить, а не открыты ли служебные страницы моей CMS для индексации. Часто новички ещё не знают, что админ панель их cms должна быть закрыта от поисковых роботов, а то они и её в индекс загонят. Для каждой cms нужно прописывать свой грамотно настроенный robots.txt, а для тех, кто на wordpress’e милости прошу скопировать мой robots.txt. Увидеть его можно пройдя по этой ссылке .

    На этом у меня всё друзья. Я считаю, статья получилась вполне исчерпывающая, но если есть то о чём я не сказал, то прошу дополнить меня в комментариях.  Теперь вы знаете насколько важна индексация сайта в яндексе и других поисковых системах.

    В заключении видео от Михаила Шакина “Как проверить индексацию страниц в поисковиках”:

    Источник: jonyit.ru

    Категория: Онлайн-шоппинг

    Похожие статьи: