
Продвижение сайта и sitemap.xml
Автор: Артурас Лапинскас
Большинство компаний и частных лиц, предлагающих услуги по продвижению сайтов, обычно говорят про повышение Тиц и PR поисковых систем, на сленге – «пузомерок», размещения ссылки сайта в различных статьях, блогах, тем самым повышая его «значимость», т.е. чем больше ссылок на ваш сайт, тем более лояльно относятся к вам поисковые машины; это и есть Тиц, или индекс цитируемости для Яндекса, и PR для Google.
К сожалению, это довольно затратное дело и не всегда приносит результат, так как Яндекс вообще не использует Тиц в поисковой выдаче, но народ упорно занимается его повышением: продает-покупает ссылки, для этого существуют целые биржи в интернете. Google PR хотя и влияет на результаты выдачи, но это отнюдь не панацея.
Я давно занимаюсь сайтами и могу сказать, что есть еще программные средства улучшения поисковой выдачи и повышения доверия поисковиков к веб-сайту. Хочу поделиться одним из них, а именно: создать генератор карты сайта в формате xml (sitemap.xml).
Во-первых, надо прояснить, как поисковики вообще работают. Поисковый робот периодически посещает ваш сайт и индексирует страницы, заносит их себе в базу(кеш), то что потом выдается на странице поиска – это не станицы вашего сайта, а сохраненные копии Google или Яндекса, или любого другого.
Можно сказать, что поисковые машины хранят у себя копию всего интернета, в какой-то степени это так и есть, в google и Яндексе на странице выдачи даже есть кнопка «сохраненная копия» - это копия страницы с памяти поиска. Бывает так, что сохраненная копия и страница вашего сайта отличаются. Почему так происходит? Поисковой робот не успел обработать еще информацию, которую вы добавили/изменили. Возможно, просто не успел, а может и вообще не знает, что что-то поменялось; это ведь программа, она следует определенным алгоритмам.
Чтобы поисковая машина точно знала какая часть вашего сайта обновлялась и изменялась (ведь при изменении адрес страницы остается тот же, и робот считает, что ее уже проверял), существует такой инструмент как sitemap.xml, можете посмотреть его на некоторых сайтах, обычно находиться в корне сайта ( http://nakhodka-discovery.ru/sitemap.xml , к примеру)
Этот файл содержит информацию о страницах сайта, которые изменялись и добавлялись в последнее время, и поисковой робот точно будет знать, какие страницы надо проиндексировать (занести себе в базу), а какие у него уже есть.
Сделать такой файл можно вручную в блокноте, с помощью он-лайн генератора, но это неудобно, каждый раз внеся изменения на сайте, нужно генерировать файл заново и грузить на сервер.
Куда удобнее сделать так, чтобы файл сам обновлялся, когда вы добавляете/изменяете станицу, это можно сделать программными средствами, если у вас динамический сайт на php или любом другом языке программирования.
И еще момент, вам надо сообщить поисковикам, что вы используете такой инструмент и точный путь до файла, это можно сделать через инструменты для веб-мастеров Google, и для Яндекса. На сайт добавляется уникальный идентификатор, и поисковики начинают более лояльно относиться к самому сайту и индексировать сайт более эффективно.
Написать комментарий
Ответ #3 дата : Fri January 28, 2011, 22:03:05
Ответ #2 дата : Fri January 28, 2011, 22:52:22
Ответ #1 дата : Sat January 29, 2011, 05:29:59