Вот пост Джоша Коэна из Гугла про First Click Free. Поражает обилие газетных пересказов и комментариев, авторы которых не удосужились этот текст даже прочитать, не говоря уже о том, чтобы на него сослаться.
Речь ни разу не идёт о том, что Гугл поменяет существующий порядок доступа к поисковым результатам.
Коэн всего лишь напоминает, для особо тупых, что вопрос отображения контента сайта в поисковике находится в полном управлении администратора сайта. Если тебе не нравится, как тебя индексируют поисковики по умолчанию — уже 15 лет как существует (и повсеместно применяется) простой, как палка, Robots Exclusion Standard.
Коротенькая инструкция, выглядит так:
http://nl.livejournal.com/robots.txt
И результат налицо:
http://www.google.com/search?q=site:nl.livejournal.com
Отдельные заголовки присутствуют, потому что они выцеплены Гуглом из внешних ссылок. Никто не вправе запретить себя упоминать или цитировать на чужих сайтах. Но никакого контента из этого дневника Гугл не индексирует, у себя не хранит, и из кэша не показывает. Потому что Лесной ему это запретил.
И с частично платным контентом — такая же фигня. Если в медицинском журнале синопсис статьи бесплатный, а сама статья за деньги, то Гугл и не проиндексирует, и не покажет эту статью. А в его кэше мы увидим приглашение платить за полный текст.
Поэтому все новшества, о которых объявил нынче Гугл, касаются не сокращения объёма показываемых материалов, а ровно наоборот. Предложены технические инструменты, позволяющие платному контент-провайдеру отдавать пользователям поисковика больше, а не меньше информации, чем он готов показывать бесплатно на собственном сайте.
Речь ни разу не идёт о том, что Гугл поменяет существующий порядок доступа к поисковым результатам.
Коэн всего лишь напоминает, для особо тупых, что вопрос отображения контента сайта в поисковике находится в полном управлении администратора сайта. Если тебе не нравится, как тебя индексируют поисковики по умолчанию — уже 15 лет как существует (и повсеместно применяется) простой, как палка, Robots Exclusion Standard.
Коротенькая инструкция, выглядит так:
http://nl.livejournal.com/robots.txt
И результат налицо:
http://www.google.com/search?q=site:nl.livejournal.com
Отдельные заголовки присутствуют, потому что они выцеплены Гуглом из внешних ссылок. Никто не вправе запретить себя упоминать или цитировать на чужих сайтах. Но никакого контента из этого дневника Гугл не индексирует, у себя не хранит, и из кэша не показывает. Потому что Лесной ему это запретил.
И с частично платным контентом — такая же фигня. Если в медицинском журнале синопсис статьи бесплатный, а сама статья за деньги, то Гугл и не проиндексирует, и не покажет эту статью. А в его кэше мы увидим приглашение платить за полный текст.
Поэтому все новшества, о которых объявил нынче Гугл, касаются не сокращения объёма показываемых материалов, а ровно наоборот. Предложены технические инструменты, позволяющие платному контент-провайдеру отдавать пользователям поисковика больше, а не меньше информации, чем он готов показывать бесплатно на собственном сайте.