Перейти к содержимому

13

Одно из сильнейших разочарований для блогера -- наблюдать как его контент всё больше и больше тырится многочислденными воровцами контента и выдаётся за свой собственный. Можно, конечно, постратить уйму времени на написание писем в практически тщетных попытках увещевания сплогеров, а далее на розыск е-мейлов и телефонов админов их хостеров и т.д. Однако можно потратить это время на более ценные и позитивные дела, и постараться извлечь максимальную прибыль для себя из такого "расползания" вашего контента по Инету. Брэд Джеде (Brad Geddes) даёт 8 советов по оптимизации контента на случай несанкционированного заимстования:

  1. Использовать абсолютные URL.
  2. Каждый пост начинать со своего имени и/или названия вашего блога.
  3. Ставить ссылку с вашего имени на страницу с краткой информацией о себе любимом.
  4. Вставлять ссылку на один из постов вашего блога в первых двух строчках поста.
  5. Вставлять в текст заметки 1-2 ссылки (в зависисмости от длины заметки) на другие посты вашего блога.
  6. Упоминать название вашего блога в тексте вашей заметки.
  7. В конце заметки размещать ссылку на "аналогичную или другую информацию".
  8. Цитировать самого себя или ссылаться на другой пост в теле заметки.

Достаточно трудно соблюдать все эти рекомендации в каждой заметке блога, поэтому постарайтесь максимально следовать им хотя бы в потенциально самых интересных заметках вашего блога.

5

Французская компания SM Conseils, владелец поисковой машины MisterBot.fr и сети рекламных объявлений с оплатой за клик MisterBot.com, представила новую "страницу на миллион долларов" -- 1nuagedemots.fr (вариант на английском: 1tagcloud.com), с виду напоминающую всем уже хорошо знакомое облако тэгов, однако ключевые слова не привязаны ни к какому контексту, а являются словами, клики по которым продаются по цене 50 евро за 3000 кликов в экслюзиве на тэг, и 25 евро за 3000 кликов разделяя тэг с другими рекламодателями.

Размер, цвет и расположение ключевых слов меняется с каждой перезагрузкой страницы.

Запущеный в середине января, этот сайт уже привлекает около 1000 уникальных посетителей в день и уже заработал свыше 3000 евро, на основани чего можно ожидать доход в феврале в районе 10000 евро.

//Neteco.com

2

Консорциум W3C выпустил восемь новых рекомендаций, касающихся XML:

1. XML Path Language (XPath) 2.0
2. XSL Transformations (XSLT) Version 2.0
3. XQuery 1.0: An XML Query Language
4. XML Syntax for XQuery 1.0 (XQueryX)
5. XQuery 1.0 and XPath 2.0 Data Model (XDM)
6. XQuery 1.0 and XPath 2.0 Functions and Operators
7. XQuery 1.0 and XPath 2.0 Formal Semantics
8. XSLT 2.0 and XQuery 1.0 Serialization

//Silicon.fr

4

Интересно, а почему до сих пор не появилось независимого Сайто-Рейтингового Агентства, которое вело бы какую-нибудь метрику, наподобии PR или CY, но без привязки к какому-нибудь поисковику (чтобы исключить подозрения в махинациях для "правильного" ранжирования). Занимаясь чисто оценкой качества сайта: полезности контента, его оригинальности, юзабилити, популярности у юзеров, чистоты следования стандартам и т.п. Можно ведь и вебнанутости добавить, чтобы пользователи могли сами сайты оценивать, и это учитывалось в суммарной оценке, либо давать такую оценку отдельно от экспертной.
Я бы сейчас с удовольствием заюзал такой рейтинг сайтов, если бы он был в свободном доступе :).

7

Следуя моде давать прогнозы на грядущий год, выскажу предположение, что если не в следующем, то скоро появится новый стандарт сайта компании, где вместо уже превычной заглавной страницы с иерархическим меню самого различного покроя, появится google-like интерфейс -- заглавная страница будет содержать "визитку" компании плюс строку ввода поисковика по всему объёму предоставлемой информации. Кстати, компания Google уже выпустила пакет Google Apps for Domain для содания своего "google.com", оталось интегрировать это с Google Appliance или Google Mini, плюс желательно возродить Google Answers в локальном варианте (типа Google Answers Mini) и прототип CMS нового поколения будет готов.

Крупные компании уже давно могут предложить гораздо больше информации потенциальному клиенту о своих товарах и услугах, нежели можно удобно эти данные расположить в иерархических меню, да ещё так, чтобы пользователь разобрался со структурой с первого захода. А так будет всем "интуитивно понятный" интерфейс поисковой строки.

Конечно, строка поиска стандартно присутсвует почти на каждом сайте, но зачатую на отшибе в правом вернем углу и зачастую чисто наминально, ибо возможности поиска, "зашитые" в некоторые CMS весьма куцые. А будет наоборот -- строка поиска будет в центре внимания и самым крупным объектом на странице, а меню станет вспомогательным инструментом и будет меняться в зависимости от того, что ищет пользователь, позволяя быстрее ориентироваться в полученных результатах или уточнять запросы в один/два клика.

23

Топ100 слов Рунета -- наиболее популярные слова, используемые на заглавных страницах сайтов Рунета. По данным поисковой машины Вершки Рунета.

8

Определены победители и призёры конкурса «Золотой Сайт 2006».

Среди победителей и призёров по Южному федеральному округу есть и сайт «Сочинского государственного университета туризма и курортного дела» -- в номинациях "Государственные, учебные и научные учреждения" и "Наука и образование".

3

DPKeys -- плагин для WordPress аналогичный плагину WPKeys, только ключевые слова используются для создания ссылок на результаты поиска поисковика чей префикс URL запроса задан в макро DPURLPREFIX macro (см. в код dpkeys.php).

15

Наблюдал по логам, почему эффективность HTTP кэша получается не очень. Оказалось весьма просто и неожиданно мелкогадко: кто у нас жрёт страницы немерянно, -- правильно, боты поисковиков. Получается такая фигня: боты Google, Yahoo, Ask, WebAlta поддерживают получение сжатого контента, боты Яндекса, Рамблера и MSN -- не поддерживают, и вот ночью набегает стая ботов первой группы, забивает кэш сжатыми копиями страниц, прибегает свора ботов второй группы, тянет тоже самое, кэш естественно не работает, бо не умеет расжимать на лету, перетягивает тот же контент, но уже в несжатом виде...

Почему это мелкогадко -- прикрутить к краулеру поддержку сжатия контента при передаче это задача для студиозусов (решается просто и быстро, благо библиотек навало, да и инфы много, ка кэто должно работать). Получается, что у Яндекса, Рамблера и MSN либо соответствующие менеджеры мышей не ловят, либо их инфраструктура уже почти на пределе и не позволяет тянуть небольной overhead разжатия вытянутого контента...

По любому выходит, что WebAlta уже уделала и Яндекс и Рамблер, по крайней мере в технической реализации поддержки протокола HTTP. 🙂