Google Sitemaps превратился в Google Webmaster Tools

Google Sitemaps вновь обнавлён. Ещё более застилизирован и преукрашен и у него новое имя: Google Webmaster Tools.

Самая полезная функция: «Preferred domain», где можно настроить какой домен (с www или без www) вы хотите увидеть в индексе и результатах поиска Google. Естественно, перемены не наступают сразу, а только через какой-то промежуток времени (об этом вежливо предупреждают).

В разделе «Manage site verification» можно посмотреть, кто ещё без вас подключил к себе данный сайт в Google Sitemaps и за ним наблюдает (вот только кажется оно ещё не работает, либо кто-то не до конца что-то сделал из «моих»). Да, при процессе verification для сайта, они проверяют, правильно ли отдаёт «статус загаловки» сайт, что бы не пропихнули 404 со статусом 200.

В разделе «Web crawl», теперь можно фильтровать ошибки по датам – когда именно они были замечены роботом. Появились фильтрации в статистике запросов не только по типу поиска, но и по серверу поиска (по странам/регионам).

Ко всему прочему, появился новый блог проекта: googlewebmastercentral.blogspot.com, новый Google Group: Google Webmaster Help и Webmaster Help Center.

Google Sitemaps обновили – он стал более информативен

Google Sitemaps – толи я проворонил, толи они не кричали сильно, но! Он не слабо обновился. Появились новые закладки:

  1. Статистика, где выводиться статистика по наиболее популярным запросам поиска для вашего сайта, статистика по обходу сайта (HTTP ошибки, PageRank, самая ранкировання страница за последние месяцы), анализ страниц (тип содержимого, кодировки, распространённые слова на сайте, слова во внешних ссылках), ссылки на разный просмотр индексации (site:, allinurl:, link: и прочее).
  2. Ошибки, где показан информация о HTTP ошибках, Недоступных адресах, Таймаута на запросе. Оценить полностью немогу – нету у меня пока таких ишибок.
  3. robots.txt, где показано содержание вашего файла robots.txt и его конфликты со страницами, проверку которых, как и сам файл вы можете настроить сами для разных роботов (пауков) и страниц.

Такой маленький портальчик для маленького белого (не по цвету кожи, а по стилю работы) оптимизатора.

А вот если подумать – почему бы сейчас Google не выпустить платный сервис для “белых” оптимизаторов, способный дать каких 50% им нужной информации, основываясь на своих данных, а всеь “нелегальные” методы отсекать и закрывать? Может это первый шаг к такому сервису? Или нам дали взглянуть на пред-пред-идущее поколение анализирующего по, которым они там пользуются?