Les agents IA dépendent de leur search
Quand on parle de la prochaine génération d’agents IA, on se concentre souvent sur le raisonnement, la planification ou la prise de décision. Mais sous tout cela se cache une opération silencieuse et fondamentale : la search.
Qu’est-ce qu’un agent IA ? Un LLM qui exécute des outils en boucle pour atteindre un objectif. Quand on parle de la prochaine génération d’agents IA, on se concentre souvent sur le raisonnement, la planification ou la prise de décision. Mais sous tout cela se cache une opération silencieuse et fondamentale : la search. Chaque interaction d’un agent, qu’il s’agisse de répondre à une question ou d’exécuter une transaction, commence par une recherche de contexte. Et pourtant, la couche de search de l’IA reste profondément défaillante.
Le problème : la search n’a jamais été conçue pour les agents
Les moteurs de recherche ont été construits pour les humains. Ils ont été optimisés pour l’engagement, pas pour la vérité, des boîtes noires entraînées à garder les utilisateurs captifs, pas à produire un savoir vérifiable. Les agents d’IA, eux, ont une mission très différente. Ils doivent agir. Ils ont besoin d’un contexte fiable. Lorsqu’ils dépendent de la recherche traditionnelle, ils en héritent les faiblesses : absence de traçabilité, limites de requêtes, paywalls, et résultats impossibles à auditer ou à reproduire. Les agents n’ont pas seulement besoin de pertinence. Ils ont besoin de déterminisme.
Ils nécessitent :
- Des résultats déterministes : des requêtes identiques ne devraient jamais produire des résultats différents.
- Des traces auditables : chaque décision doit pouvoir être reliée à sa source de données.
- Une récupération efficace : non pas parcourir des milliards de pages inutiles, mais accéder aux bonnes données privées au bon moment.
Si nous voulons des agents autonomes dignes de confiance, il faut commencer par une recherche vérifiable.
Le déterminisme commence par la search
On reconnaît de plus en plus la nécessité de rendre les systèmes d’IA plus déterministes. Des entreprises comme Thinking Machines Lab et EigenAI œuvrent à rendre l’inférence reproductible et vérifiable. Mais le déterminisme des modèles ne veut rien dire si la recherche ne l’est pas elle aussi. Chaque morceau de contexte récupéré doit être vérifiable, horodaté et lié à son origine, un événement pouvant être audité par n’importe quel observateur. Sans cela, « autonomie des agents » n’est qu’un comportement aléatoire dit avec assurance.
Pourquoi le Web ouvert ne suffit pas
Rendre les LLMs plus performants ne permettra pas d’extraire des informations pertinentes du Web en un temps raisonnable. Même si des modèles comme Grok 4 atteignent un contexte de 2 millions de tokens, on observe des rendements décroissants : les performances chutent à mesure que le contexte s’élargit (voir contextarena.ai). Plus grand ne veut pas dire plus intelligent.
Ce dont les agents d’IA ont réellement besoin, c’est de précision, c’est-à-dire de données propres, ciblées et issues de sources fiables.
Le Web ouvert ne peut pas offrir cela. Il est bruyant, non structuré et économiquement désaligné avec la vérité.
La prochaine frontière de la recherche ne consistera pas à scraper le Web, mais à interroger des données privées en temps réel, avec la traçabilité intégrée.
La couche économique de la recherche
Imaginez si chaque requête de recherche était une transaction. Chaque donnée récupérée deviendrait une unité de contexte vérifié et valorisée. Cela transformerait la recherche d’un service opaque en une économie de la connaissance, où les fournisseurs de données seraient récompensés pour leur exactitude et où les agents d’IA ne paieraient que pour ce dont ils ont besoin.
De plus en plus de projets explorent cette voie : des marchés de données vérifiables, des API de contexte et des couches de recherche programmables pour agents. Parmi eux se trouve Kirha, une plateforme permettant aux agents d’accéder à des données privées et vérifiées via des micropaiements, un système fondé sur la responsabilité et non sur le scraping.
CaaS : le « Contexte as a Service »
Le CaaS est le nouveau SaaS. À mesure que les LLM évoluent vers une intelligence générale, ils vont absorber l’industrie du SaaS traditionnel. « Nous entrons dans l’ère du fast fashion du SaaS », où fournir le bon contexte à un LLM compte plus que livrer le logiciel lui-même.
Ce changement représente une nouvelle couche d’infrastructure pour l’IA : le Contexte en tant que Service. Une recherche programmable que les agents peuvent interroger pour obtenir des informations déterministes et vérifiables, et payer instantanément pour y accéder. Chaque requête devient une unité de vérité, pas une supposition. Chaque transaction laisse une trace vérifiable indiquant d’où proviennent les données, quand elles ont été récupérées et comment elles ont été utilisées.
C’est ce genre de fondation dont l’IA a besoin si nous voulons des agents réellement dignes de confiance.
L’avenir de la recherche est vérifiable
L’intelligence des agents d’IA de demain ne viendra pas de modèles plus grands ni de contextes plus étendus, mais de meilleures recherches, c’est-à-dire de systèmes capables de trouver, vérifier et échanger des informations fiables en temps réel. La recherche n’a jamais été conçue pour les agents. Il est temps de la reconstruire.
Parce que les agents d’IA sont à 90 % de la recherche, et que l’avenir de la recherche doit être vérifiable, économiquement aligné et conçu pour les machines, pas pour les humains.
Faire confiance à sa recherche, c’est comme faire confiance à sa voiture.