Guerre du search : épisode 2

La recherche web des 30 dernières années a été conçue pour les humains. Aujourd’hui, elle est en train d’être reconstruite pour les agents.

Ceci est la traduction de l’article Search Wars: Episode 2 publié sur le blog du fonds de capital risque a16z. J’ai choisi de le partager ici car, pour comprendre le futur du SEO, du GEO et de la recherche pilotée par l’IA, il faut revisiter les fondations de la recherche sur internet. En le lisant, j’ai réalisé à quel point il révèle la trajectoire réelle du search moderne et les forces qui redessinent entièrement notre manière d’être visibles. C’est exactement pour cela que je l’ai voulu le partager ici.

En 1996, le magazine Wired publiait un article sur la bataille entre différents fournisseurs de recherche durant les débuts d’Internet (Seek and Ye Shall Find (Maybe)). La grande conclusion de cette période (avant Google, avant PageRank) était que toutes les startups abordaient la recherche en ligne de manière totalement différente :

  • Yahoo adoptait une approche de type catalogue, où les sites devaient être minutieusement classés manuellement par des humains.

  • Inktomi, un moteur backend aujourd’hui oublié, utilisait des robots rudimentaires et indexait les résultats selon un algorithme interne de pertinence textuelle.

  • Excite était un portail destiné aux utilisateurs, basé sur un index inversé du web et regroupant les sites ayant des profils similaires (jugés linguistiquement).

Article de Wired en 1996 : Seek and Ye Shall Find

C’était une époque plus simple : d’une certaine manière, travailler sur la recherche dans les années 90

ressemblait davantage au métier de bibliothécaire qu’à celui d’ingénieur en recherche.

Mais toutes ces startups ont été distancées par Google, fondé deux ans plus tard en 1998. L’algorithme PageRank de Google utilisait le nombre de backlinks pour évaluer la légitimité d’un site, devenant rapidement la meilleure façon pour les humains de naviguer sur Internet, et pour les marques, les éditeurs et les experts SEO de se promouvoir en ligne. Jusqu’à l’ère de l’IA, beaucoup considéraient que le problème de la recherche sur Internet était en grande partie résolu.

Jusqu’à l’ère de l’IA, beaucoup considéraient que le problème de la recherche sur Internet était en grande partie résolu.

Les choses changent à nouveau. Nous avons aujourd’hui un siège au premier rang d’un show inédit : une nouvelle guerre du search menée par de nombreuses startups. Et avec des agents prêts à parcourir le web à un rythme impossible pour des humains, les enjeux sont énormes :

  • Nous devons repenser la recherche pour un monde où ce sont les agents qui effectuent la majorité de la navigation et des requêtes, plutôt que des humains tapant une question, et des dizaines de startups se battent actuellement pour cette opportunité.

  • Contrairement à il y a 25 ans, où chaque concurrent était un produit de recherche (Yahoo, Excite, AltaVista…), la compétition actuelle se joue surtout entre des fournisseurs d’API capables d’itérer très rapidement et d’intégrer l’état de l’art en recherche IA.

  • La plupart des entreprises orientées utilisateurs avec un besoin de recherche web (Deep Research, CRM, documentation technique…) externalisent désormais plutôt que de construire leur propre pile de recherche. Cela dit, quelques laboratoires et startups plus importantes développent à la fois un produit orienté utilisateur final et un service API destiné aux développeurs.

  • Pendant plus de 30 ans, la recherche web a été construite pour les humains. Désormais, elle est repensée pour les agents. Mais ce sont les humains qui en seront les premiers bénéficiaires : l’information remontera plus vite, la recherche chronophage sera accélérée, et de nouveaux produits émergeront.

Indexer le web pour l’IA

La recherche web telle qu’elle existe aujourd’hui est principalement optimisée pour les humains (ou plutôt pour les spécialistes marketing). Elle fait remonter du contenu optimisé SEO, et saturé de publicités, et contient beaucoup d’informations superflues.

Cela oblige les développeurs à scraper d’immenses quantités de données inutiles puis à les résumer, ce qui devient coûteux et chronophage. Si l’on ajoutait une couche de recherche IA sur le web tel qu’il existe actuellement, on obtiendrait énormément de bruit : une très mauvaise expression du potentiel des LLM, pas une bonne.

La recherche peut (et devrait) être construite nativement pour l’IA. Une couche de recherche IA-native doit cibler les passages les plus riches en information, avec des contrôles explicites sur la fraîcheur et la longueur, prêts à être insérés dans une fenêtre de contexte de LLM. Une couche IA-native fournit les segments les plus utiles, avec un contrôle précis de la longueur et de l’actualité, la rendant immédiatement exploitable dans des workflows agentiques.

Nous avons tiré plusieurs enseignements des discussions avec des fournisseurs de modèles IA, des équipes qui construisent des moteurs de recherche IA, et des équipes qui les exploitent. Contrairement au web existant, dominé par quelques géants (un seul, réellement), cette nouvelle ère pourrait compter de nombreux fournisseurs spécialisés sur différents domaines, intégrés dans des produits destinés aux utilisateurs finaux.

Alors que certains acteurs leaders choisissent de développer leur propre moteur de recherche, la majorité des organisations anticipent de s’appuyer sur des fournisseurs tiers. Le coût et la complexité élevés liés au maintien d’un index web complet rendent l’externalisation plus attractive, sauf pour les organisations opérant à très grande échelle. Comme l’a formulé un constructeur de modèles IA : la décision repose sur la valeur du temps d’ingénierie investi en recherche plutôt qu’en améliorations prioritaires du produit. Pour cette équipe, externaliser était logique.

La décision repose sur la valeur du temps d’ingénierie investi en recherche plutôt qu’en améliorations prioritaires du produit. Pour cette équipe, externaliser était logique.

Constructeur de modèles IA

Cela s’explique par la rapidité avec laquelle les pratiques d’ingénierie web évoluent aujourd’hui, comparée aux années 90. Beaucoup d’outils nés dans les labos IA commencent comme projets open source attirant les développeurs sur GitHub et X avant d’être industrialisés. Les connaissances circulent plus vite, et il est logique de voir les architectures converger. Résultat : les acteurs actuels sont plus similaires techniquement que ceux d’il y a 25 ans : ils ont trouvé ce qui fonctionne et optimisé tôt leurs compromis.

La performance reste centrale. Re-crawler et réindexer l’ensemble du web avec une qualité comparable à Google est loin d’être trivial : cela coûte cher, demande une infrastructure massive, et implique de traiter des volumes gigantesques (petaoctets). Certaines entreprises, comme Exa, adoptent une approche infra lourde avec 144 GPU H200 pour crawler, stocker et intégrer des données dans une base neuronale sur mesure. Parallel maintient un index massif optimisé pour les agents IA, ajoutant des millions de pages par jour et fournissant une API programmée pour remonter des extraits frais, optimisés en tokens, pour le raisonnement IA.

D’autres entreprises comme Tavily et Valyu choisissent un modèle de crawling périodique, optimisé par des modèles RL (Reinforcement learning) capables d’indiquer quand recrawler une page. Un blog ne change pas souvent, mais un site e-commerce peut nécessiter une mise à jour horaire. Ce compromis économise le calcul tout en assurant la fraîcheur des zones les plus pertinentes du web.

L’objectif final est d’équilibrer coût, précision et performance tout en couvrant largement le web. Un bon index signifie une couverture pertinente du contenu que les humains (et désormais les agents) jugent utile.

Une brève histoire de la recherche IA

Il suffit de remonter à 2023.

  • Quand ChatGPT est sorti, il n’avait pas accès à Internet, ce qui entraînait des réponses datées ou incomplètes. Certaines étaient même cocasses : des noms inventés dans Matrix, ou des affirmations erronées comme "les sardines en conserve sont vivantes".

  • Aujourd’hui, ce type de requête est vérifié par les LLM connectés au web. Mais à l’époque, cette limitation freinait fortement son utilité, notamment pour les développeurs incapables d’accéder à la documentation en ligne.

Une équipe d’ingénieurs (future fondatrice de Tavily) a été parmi les premières à résoudre ce problème avec l’outil open source GPT Researcher, un projet viral ayant dépassé 20 000 étoiles GitHub, permettant aux agents de parcourir le web et d’intégrer les informations dans leurs raisonnements.

GPT Researcher a initié un nouveau paradigme : "retrieval for reasoning", combinant recherche, résumé et synthèse. Un agent pouvait parcourir le web, trouver des sources, évaluer leur qualité, puis en tirer une synthèse utile. ChatGPT a confirmé cette approche en intégrant la navigation web en 2024, ouvrant la voie à une nouvelle vague d’innovation en recherche pour agents.

Deux évolutions technologiques ont ensuite été clés :

  • RAG (retrieval-augmented generation) : RAG donne accès à des données réelles et récentes plutôt qu’à un modèle figé.

  • TTC (test-time compute) : TTC permet au modèle de raisonner par étapes successives.

Ensemble, elles transforment un modèle statique en système dynamique capable de chercher, vérifier et réfléchir davantage.

Cela a créé un moment charnière. Les utilisateurs sentaient que la recherche IA devenait puissante, mais l’interface idéale restait floue : fallait-il l’intégrer à ChatGPT, ou créer une nouvelle couche infrastructurelle dédiée ? Le marché semble avoir choisi la deuxième voie.

"Notre agent builder est le successeur de l’API Bing."

Microsoft oriente les développeurs vers les agents IA d’Azure

Plus tôt en 2025, Microsoft a discrètement supprimé l’accès public à l’API Bing Search et orienté les développeurs vers un service payant d’agent builder intégrant Bing dans un workflow LLM. Le signal était clair : "Notre agent builder est le successeur de l’API Bing." À ce moment-là, une douzaine d’acteurs IA search existaient déjà. Nous les analysons ci-dessous.

Le terrain de jeu actuel : plateformes vs produits

Si l’article Wired de 1996 était publié aujourd’hui au sujet des startups de la recherche IA, l’angle serait très différent.

La plupart des produits de recherche IA convergent désormais vers des plateformes API. Une seule intégration permet d’accéder à de la recherche classée, du crawling, de l’extraction de contenu et de la recherche approfondie.

Grâce à des interfaces simples, ces API peuvent être intégrées directement dans des agents, permettant à des entreprises — souvent des développeurs — de construire leurs produits avec une recherche externe intégrée : CRM avec enrichissement automatique, outils de développement accédant à la documentation en ligne, etc.

Les usages varient :

  • certains préfèrent une solution tout-en-un,

  • d’autres assemblent plusieurs briques (recherche, raisonnement, exécution).

Certains fournisseurs utilisent leur propre index, d’autres s’appuient sur des tiers.

Une nouvelle catégorie émerge : celle des produits destinés au grand public :

  • ChatGPT a lancé publiquement sa fonctionnalité de deep research en février 2025.

  • Seda développe des versions avancées comme la recherche ramifiée ou la spécification de résultats.

  • Exa a lancé Websets, permettant d’utiliser sa recherche sans intégrer l’API.

Ces produits orientés développeurs s’appuient sur l’infrastructure IA existante et privilégient la simplicité d’usage au détriment de la flexibilité. Par exemple, Websets permet l’enrichissement immédiat de leads sans intervention technique, mais ne permet pas d’ajouter de logique personnalisée.

Les entreprises évaluent ces solutions selon la qualité des résultats, la performance de l’API et les coûts. Il n’existe cependant aucun standard : certaines font des tests rapides, d’autres construisent des benchmarks internes rigoureux. Certaines utilisent plusieurs fournisseurs simultanément pour combiner vitesse, précision et couverture.

Cas d’usage actuels

Deep Research

Pourquoi la recherche approfondie est l’un des cas d’usage les plus prometteurs ?

Elle permet à un agent de :

  • mener une investigation complexe

  • multi-étapes

  • à large spectre.

Ce qui prendrait des heures à un humain peut être accompli en quelques minutes, et l’agent peut découvrir des informations autrement inaccessibles.

Le benchmark BrowseComp d’OpenAI illustre bien la valeur ajoutée : ses 1 266 questions nécessitent recherche multi-source, reformulation de requête et synthèse de contexte. Les experts humains n’en résolvent qu'environ 25 % en deux heures. Ce benchmark reflète des cas réels : suivi réglementaire, intelligence concurrentielle, structures juridiques complexes, due diligence. Parallel propose déjà une API utilisée pour produire des rapports de marché.

Notre conviction émergente : la recherche approfondie deviendra la forme dominante et la plus monétisable de la recherche agentique. Les entreprises montrent déjà qu’elles sont prêtes à payer pour des recherches fiables.

Enrichissement CRM

Un cas d’usage rapidement adopté est l’enrichissement automatique des contacts. Ce processus manuel et fastidieux peut être automatisé grâce à un agent capable de trouver, vérifier et mettre à jour les informations sur les personnes et organisations.

Documentation technique / Recherche code

Les agents de développement ont besoin d’un accès actualisé aux frameworks et documentations. Les datasets statiques deviennent rapidement obsolètes. La recherche IA comble cette lacune en connectant directement l’agent au web.

Recommandations personnalisées

La recherche temps réel ouvre la porte à des recommandations personnalisées et proactives, basées sur des données web actualisées en continu.

Conclusion

Dans l’ensemble du marché, les plus de 30 entreprises utilisant des API de recherche que nous avons interrogées observent des différences limitées entre les premiers fournisseurs IA search. La plupart se concurrencent sur la vitesse, le coût et l’intégration, et offrent des fonctionnalités similaires : recherche classée, crawling, extraction documentaire, deep research. Cela dit, le paysage évolue rapidement. Certains acteurs commencent à se différencier, notamment dans la recherche approfondie. La frontière entre "API search" et "LLM-as-search" commence également à disparaître : certains veulent des résultats bruts filtrés par IA, d’autres veulent des réponses déjà structurées.

Comme évoqué plus haut, les approches d’indexation diffèrent selon les acteurs. Comme l’a indiqué un client entreprise : le classement des fournisseurs change constamment et ce domaine est l’un des plus dynamiques que nous suivons, car les compromis techniques faits aujourd’hui créeront de grandes différences demain.

Il est utile de rappeler que la recherche devenait lourde, saturée et difficile à naviguer avant l’arrivée de l’IA : de nombreux résultats étaient enfouis sous des contenus sponsorisés, pop-ups et publicités. Rendre la recherche accessible aux agents, c’est aussi la rendre plus utile aux humains.

Il aura fallu trente ans, mais la recherche en ligne commence enfin à évoluer à nouveau. Et nous sommes impatients de voir jusqu’où les équipes de produits pousseront la frontière.