Перейти к содержимому

Поисковые стартапы мертвы — да здравствуют поисковые стартапы

Тим о'Рэйли в своём «Радаре» отмечает мысль, высказаную Билом Бурнхэмом (Bill Burnham):

Сегодня многочисленные поисковые стартапы в духе Google, Yahoo, Ask и т.п., ищущие источники финансирования, по большей части заведомо мертвы, поскольку на сегодняшний момент поисковик, это не столько алгоритмы, сколько дорогостоящая платформа для индексирования всего Интернета, хранения собраной информации, а также способная обрабатывать огромное число запросов на поиск от многочисленных пользователей. Возможно, выжить смогут только те, кто сможет переориентироваться на создание новых приложений, а не на попытки построения собственной инфраструктуры поиска. Вполне возможно, что в ближайшее время инфрастуртура, необходимая для глобального поиска, будет доступна в качестве сервиса. Здесь компания Amazon, открыв индексирующий и поисковый API своего поисковика Alexa, выступает пионером "поиска как сервиса".

Далее Тим приводит пример Nutch, проекта создания поисковика с открытым исходным кодом, которым он когда-то занимался, и отмечает, что он, до сих пор не получив достаточного финансирования на создание собственной инфрастуктуры глобального поиска, так и остался по большей части исследовательским проектом.

Таким образом, Web 2.0 вступает в новую фазу, где соперничают не столько конкретные приложения, сколько платформы для таких приложений, но в отличие от эры Windows, главное здесь не контроль за API, он как правило открытый и всем доступный, а именно инфраструктура, и в первую очередь огромные базы данных, лежащие в основе приложений Web 2.0.

7 thoughts on “Поисковые стартапы мертвы — да здравствуют поисковые стартапы

  1. ooptimum

    Именно поэтому я предлагал ввести в состав dataparksearch, наряду с search.cgi и кампания, SOAP веб-сервис. На первых порах его можно хотя бы на перле реализовать, благо, модуль для перла в наличии.

  2. Алексей

    Quintura.ru создает новые приложения и похоже не пытается построить собственную инфраструктуру

  3. Maxime

    Что это за зверь SOAP, с чем его едят и как он должен выглядеть для поисковика ?

    Quintura -- метапоисковик, ей ни нужна никакая инфраструктура, ни своя, ни арендуемая.

  4. ooptimum

    SOAP -- Simple Object Access Protocol. Можно представить как RPC через HTTP, где запросы и ответы завернуты в XML.

    Здесь все описано:
    http://ru.wikipedia.org/wiki/%D0%92%D0%B5%D0%B1-%D1%81%D0%B5%D1%80%D0%B2%D0%B8%D1%81

    Идея состоит в том, чтобы сделать веб-сервис, принимающий от клиентов (не людей) запросы в стандартной форме и отдающий им результаты поиска тоже в стандартной форма. А что клиент будет с ними делать -- его дело. Например, встроит в страницу на ASP.NET. Или пошлет по электронной почте. Да мало ли...

  5. ooptimum

    Как обычно, английская версия лучше русской, к сожалению: http://en.wikipedia.org/wiki/Web_service

    "Web services are a new breed of Web application. They are self-contained, self-describing, modular applications that can be published, located, and invoked across the Web. Web services perform functions, which can be anything from simple requests to complicated business processes...Once a Web service is deployed, other applications (and other Web services) can discover and invoke the deployed service."
    http://www.xml.com/pub/a/ws/2001/04/04/webservices/index.html

  6. Василий Алмазов

    У Quintura нет никаких шансов. Это выкидыш. Цель - съесть деньги инвесторов и пополнить свое резюме одной строчкой типа "Главный разработчик поисковика".

    >главное здесь не контроль за API, он как правило открытый и всем доступный, а именно инфраструктура, и в первую очередь огромные базы данных, лежащие в основе приложений Web 2.0.

    Действительно, даже Мелкософт не может поспорить с Гуглем по количеству серверов. Тут нужен совершенно иной подход. Наиболее вероятные направления:

    1. Разделить огромный поисковик на тысчи мелких тематических и локальных.
    2. Воспользоваться P2P - даже Гугль не в состоянии конкурировать с миллиардом компьютеров простых пользователей. Никто не может соперничать по трафику с Битторрентом.
    3. Использовать Вики-подобные механизмы
    4. Удалить мусорные сайты. Как известно, 99% сайтов - копии других сайтов. Иногда с небольшими отличиями. Если сохранять на дисках не сайты целиком, а только разницу между ними, терабайты можно сократить до гигабайтов
    5. Комбинировать с 1 по 4. P2P база данных, Вики-очистка и классификация, много мелких поисковиков на единой базе данных, исключение копий.

    Больше информации:
    http://www.winclows.com/w-poiskowiki/

    Работы еще много.

  7. иракли

    кто бы еще придумал новый интерфейс для поиска и как убрать этот search box..

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *