Reverse Engineering - Avril 2026 Reverse Engineering - April 2026

Brave Search : l'infrastructure invisible de l'IA générative

Brave Search: the invisible infrastructure of generative AI

Comment un index de 30+ milliards de pages alimente silencieusement Claude, Grok, Mistral et des centaines d'applications IA. Analyse approfondie du moteur de ranking GRAIL et de ses 22 métriques internes.

How a 30+ billion page index silently powers Claude, Grok, Mistral and hundreds of AI applications. In-depth analysis of the GRAIL ranking engine and its 22 internal metrics.

Powered by RESONEO

Cette investigation prolonge les travaux de David Konitzny, dont l'article Inside Ask Brave nous a mis sur la piste. En analysant les flux réseau du pipeline Ask Brave (TAP), nous avons pu lister précisément les 22 métriques internes du moteur de ranking GRAIL et décrire le fonctionnement des pipelines utilisés par Brave Search.

This investigation builds on the work of David Konitzny, whose article Inside Ask Brave put us on the trail. By analyzing Ask Brave's TAP pipeline network flows, we were able to precisely list the 22 internal metrics of the GRAIL ranking engine and describe the pipelines used by Brave Search.

1

L'écosystème Brave

The Brave Ecosystem

Un index indépendant de 30+ milliards de pages, devenu le fournisseur dominant de données web pour l'IA

An independent 30+ billion page index that became the dominant web data provider for AI

De Tailcat à l'indépendance

From Tailcat to Independence

Brave Search repose sur la technologie Tailcat, acquise en mars 2021 auprès de l'équipe de Cliqz GmbH (ancienne filiale de Hubert Burda Media). Le nom de code interne "Tailcat" désigne le moteur d'indexation et de ranking conçu à Munich, qui constitue le socle technique de Brave Search. C'est le seul index web indépendant à grande échelle en dehors de Google et Bing.

Brave Search is built on Tailcat technology, acquired in March 2021 from the Cliqz GmbH team (a former subsidiary of Hubert Burda Media). The internal codename "Tailcat" refers to the indexing and ranking engine designed in Munich, which forms the technical foundation of Brave Search. It is the only large-scale independent web index outside of Google and Bing.

Chronologie clé

Key Timeline

Juin 2021
Lancement de Brave Search en bêta publique, propulsé par l'index Tailcat.
Juin 2022
Brave Search sort de la bêta et lance le programme Goggles (filtres de re-ranking personnalisables).
Avril 2023
Indépendance totale de Bing (100% des résultats issus de l'index propre).
30 mai 2023
Lancement du Brave Search API, positionnant l'index comme fournisseur de données pour les LLMs.
June 2021
Brave Search launches in public beta, powered by the Tailcat index.
June 2022
Brave Search exits beta and launches the Goggles program (user-customizable re-ranking filters).
April 2023
Full independence from Bing (100% of results served from own index).
May 30, 2023
Brave Search API launches, positioning the index as a data provider for LLMs.
30+ MrdB
Pages indexéesIndexed pages
100M
Mises à jour quotidiennesDaily updates
50M
Requêtes / jourQueries / day
22M
Réponses IA / jourAI answers / day

Qui utilise Brave Search ?

Who uses Brave Search?

Brave revendique que son API alimente la majorité des 10 premiers LLMs mondiaux (revendication commerciale non vérifiable). Les partenariats confirmés ou documentés :

Brave claims its API powers the majority of the top 10 global LLMs (unverifiable commercial claim). Confirmed or documented partnerships:

Claude (Anthropic)

Via MCP, moteur de recherche par défaut

Via MCP, default search engine

Confirmé Confirmed

Grok (xAI)

Confirmé par analyse CSP et privacy policy européenne. Source

Confirmed via CSP analysis and European privacy policy. Source

Documenté Documented

Le Chat (Mistral AI)

Partenariat annoncé pour la recherche web

Announced partnership for web search

Confirmé Confirmed

Meta

Partenariat pour l'accès aux données web

Partnership for web data access

Confirmé Confirmed

Perplexity

A utilisé Brave de 2023 à 2025 (peut-être encore partiellement)

Used Brave from 2023 to 2025 (may still be partially used)

Ancien Past

Snowflake

Intégration via l'API Data for AI

Integration via the Data for AI API

Confirmé Confirmed

AWS Bedrock

Disponible comme source de données pour les agents IA

Available as a data source for AI agents

Confirmé Confirmed

OpenClaw

Framework open-source d'agents IA, utilisant Brave comme fournisseur de recherche par défaut

Open-source AI agent framework, using Brave as default search provider

Confirmé Confirmed
...

Web Discovery Project (WDP)

Web Discovery Project (WDP)

Le WDP est un programme opt-in du navigateur Brave. Les utilisateurs volontaires partagent anonymement des données de navigation (URLs visitées, clics sur les résultats de recherche) pour améliorer l'index Brave. Ces données alimentent les signaux popularity, boost et les requêtes historiques utilisées par le modèle MiniLM. Dans nos tests, les colonnes Popularity et Boost restent systématiquement à zéro, suggérant que ces données ne sont pas exposées dans le flux TAP.

WDP is an opt-in program from the Brave browser. Volunteering users anonymously share browsing data (visited URLs, search result clicks) to improve the Brave index. This data feeds the popularity, boost signals and the historical queries used by the MiniLM model. In our tests, the Popularity and Boost columns remain consistently at zero, suggesting this data is not exposed in the TAP flow.

Le LLM d'Ask Brave

Ask Brave's LLM

Le pipeline TAP d'Ask Brave utilise Qwen3 pour la génération des réponses LLM. La configuration interne du pipeline référence également Claude 3 Haiku d'Anthropic (claude-3-haiku-20240307) dans la structure chatllm.key.

Ask Brave's TAP pipeline uses Qwen3 for LLM response generation. The pipeline's internal configuration also references Anthropic's Claude 3 Haiku (claude-3-haiku-20240307) in the chatllm.key structure.

Brave Search API : l'API propose un crédit gratuit de 5$/mois (~1 000 requêtes), puis 5$ pour 1 000 requêtes supplémentaires. Le plan "Data for AI" est destiné aux entreprises qui souhaitent utiliser l'index Brave comme source de grounding pour leurs LLMs. Les tarifs ne sont pas publics pour les gros volumes.

Brave Search API: the API offers $5/month in free credit (~1,000 queries), then $5 per 1,000 additional queries. The "Data for AI" plan targets businesses that want to use the Brave index as a grounding source for their LLMs. Pricing is not public for large volumes.

2

Outil interactif GRAIL

Interactive GRAIL Tool

Interrogez Ask Brave en temps réel et visualisez les scores de ranking internes

Query Ask Brave in real time and visualize internal ranking scores

Comment ça marche : cet outil envoie votre requête au pipeline Ask Brave (TAP) et capture les données de ranking GRAIL exposées dans l'objet bo_debug.grail de chaque résultat. Ces données internes ne sont normalement pas visibles dans l'interface utilisateur.

How it works: this tool sends your query to the Ask Brave pipeline (TAP) and captures the GRAIL ranking data exposed in the bo_debug.grail object of each result. This internal data is normally not visible in the user interface.

Testez Brave GRAIL

Test Brave GRAIL

Analyse en cours... La réponse peut mettre jusqu'à une minute. En attendant, nous vous suggérons de lire la section 3 juste en dessous :) Analyzing... The response may take up to a minute. In the meantime, we suggest reading section 3 just below :)

Aucun signal GRAIL disponible. Votre requête n'a déclenché que des fan-outs RAG classiques, sans activer le pipeline de ranking GRAIL. Les scores de ranking ne seront donc pas visibles. Essayez une requête plus générique ou informationnelle, ou cliquez sur l'un des exemples pré-enregistrés ci-dessous.

No GRAIL signals available. Your query only triggered standard RAG fan-outs without activating the GRAIL ranking pipeline. Ranking scores will not be visible. Try a more generic or informational query, or click one of the pre-recorded examples below.

Réponse Ask BraveAsk Brave Response

Exemples pré-enregistrésPre-recorded examples

3

Fonctionnement de Brave Search et Ask Brave

How Brave Search and Ask Brave Work

Architecture du pipeline TAP, microservices et mécanismes de ranking

TAP pipeline architecture, microservices and ranking mechanisms

Ask Brave repose sur un pipeline appelé TAP (Tool-Augmented Pipeline). Le LLM reçoit la requête utilisateur, génère des sous-requêtes (fan-out queries) et déclenche des outils spécialisés via l'endpoint Run Tool. C'est dans la réponse de cet endpoint que les 22 métriques GRAIL sont exposées, via l'objet bo_debug.grail de chaque résultat. L'envoi au Run Tool se fait sans cookies de session, ce qui constitue la condition technique de cette fuite de données.

Ask Brave relies on a pipeline called TAP (Tool-Augmented Pipeline). The LLM receives the user query, generates sub-queries (fan-out queries) and triggers specialized tools via the Run Tool endpoint. The 22 GRAIL metrics are exposed in the response from this endpoint, through the bo_debug.grail object of each result. The Run Tool call is made without session cookies, which is the technical condition enabling this data leak.

RAG vs GRAIL : les requêtes avec opérateur site: et certaines requêtes d'actualité utilisent le pipeline RAG (Retrieval-Augmented Generation) et non GRAIL. Le pipeline RAG renvoie des tableaux plats queries[] + urls[] sans scores de ranking. Seuls les événements augment_with_web produisent des scores GRAIL.

RAG vs GRAIL: queries with the site: operator and some news/current-event queries use the RAG (Retrieval-Augmented Generation) pipeline, not GRAIL. The RAG pipeline returns flat queries[] + urls[] arrays without ranking scores. Only augment_with_web events produce GRAIL scores.

Pipeline de ranking (7 étapes)

Ranking Pipeline (7 stages)

1. Réception de la requête

1. Query reception

L'utilisateur envoie une requête via Ask Brave. Le pipeline TAP la transmet au LLM (Qwen3, avec Claude 3 Haiku référencé en configuration).

The user sends a query via Ask Brave. The TAP pipeline forwards it to the LLM (Qwen3, with Claude 3 Haiku referenced in configuration).

2. Génération des fan-out queries

2. Fan-out query generation

Le LLM décompose la requête en sous-requêtes spécialisées (fan-out queries). Chaque sous-requête cible un aspect différent de la question.

The LLM decomposes the query into specialized sub-queries (fan-out queries). Each sub-query targets a different aspect of the question.

3. Appel Run Tool (augment_with_web)

3. Run Tool call (augment_with_web)

Chaque fan-out query déclenche un appel à l'endpoint run_tool avec le type augment_with_web. Cet appel est envoyé sans cookies de session.

Each fan-out query triggers a call to the run_tool endpoint with type augment_with_web. This call is sent without session cookies.

4. Ranking GRAIL

4. GRAIL ranking

Le service Ranking reçoit la sous-requête et classe les résultats web. Le GBDT (Gradient Boosted Decision Tree) combine les 22 signaux (GTE, MiniLM, QA, etc.) en un tree_score unique.

The Ranking service receives the sub-query and ranks web results. The GBDT (Gradient Boosted Decision Tree) combines all 22 signals (GTE, MiniLM, QA, etc.) into a single tree_score.

~348ms

5. Assemblage Martingale

5. Martingale assembly

Le mixer Martingale entrelace les résultats web, news, vidéos et ads en une SERP unifiée avec 16 types de slots.

The Martingale mixer interleaves web, news, video and ads results into a unified SERP with 16 slot types.

~33-464ms

6. Réponse avec bo_debug.grail

6. Response with bo_debug.grail

Les résultats retournés contiennent l'objet bo_debug.grail avec les 22 métriques internes, normalement destinées au débogage interne.

Returned results contain the bo_debug.grail object with all 22 internal metrics, normally intended for internal debugging.

7. Génération de la réponse LLM

7. LLM response generation

Le LLM utilise les résultats rankés pour générer une réponse synthétique avec citations. Les résultats marqués fit_for_enhancement: high (tree_score > 3.0) sont privilégiés.

The LLM uses the ranked results to generate a synthesized response with citations. Results marked fit_for_enhancement: high (tree_score > 3.0) are prioritized.

Services complémentaires appelés durant le pipeline

Additional services called during the pipeline

D'autres microservices spécialisés peuvent intervenir à différentes étapes du pipeline, en parallèle ou en complément des étapes principales :

Other specialized microservices may be involved at various stages of the pipeline, in parallel or as complements to the main stages:

SafeSearch

Filtrage de contenu en batch. Classe les résultats en catégories de sécurité.

Batch content filtering. Classifies results into safety categories.

5-25ms
Ads

Service publicitaire Brave Ads intégré au pipeline de recherche.

Brave Ads service integrated into the search pipeline.

14-142ms
Local / Compass

Résultats géolocalisés basés sur le paramètre geoloc de la requête.

Geolocalized results based on the query's geoloc parameter.

1-2ms
Featured Snippets v2

Détection de requêtes navigationnelles et extraction de featured snippets.

Navigational query detection and structured featured snippet extraction.

27-64ms
Spellcheck

Correction orthographique et suggestions de requêtes alternatives.

Spelling correction and alternative query suggestions.

6-12ms

Architecture sans cookies

Cookieless Architecture

L'analyse des échanges HTTP du pipeline TAP confirme qu'aucun cookie n'est envoyé ni reçu. Brave Search fonctionne sans tracking utilisateur individuel, sans personnalisation des résultats et sans cookies de session (sauf authentification Premium optionnelle).

Analysis of TAP pipeline HTTP exchanges confirms that zero cookies are sent or received. Brave Search operates without individual user tracking, without result personalization, and without session cookies (except for optional Premium authentication).

Évolution IA de Brave Search

Brave Search AI Evolution

Mars 2023
Summarizer : premiers résumés IA dans les résultats de recherche.
Avril 2024
Answer with AI : réponses complètes générées par IA en haut de la SERP.
Septembre 2025
Ask Brave (Qwen3 pour le LLM, Claude 3 Haiku référencé en configuration) : pipeline TAP conversationnel avec outils.
March 2023
Summarizer: first AI summaries in search results.
April 2024
Answer with AI: complete AI-generated responses at the top of the SERP.
September 2025
Ask Brave (Qwen3 for LLM, Claude 3 Haiku referenced in configuration): conversational TAP pipeline with tools.
4

Les 22 signaux GRAIL décryptés

The 22 GRAIL Signals Decoded

Anatomie complète du moteur de ranking utilisé pour classer les sources du grounding IA

Complete anatomy of the ranking engine used to rank AI grounding sources

Scores composites

Composite Scores

Le score final (tree_score) est calculé par un GBDT (Gradient Boosted Decision Tree), un modèle d'apprentissage automatique utilisé en learning-to-rank qui combine l'ensemble des signaux individuels en un score unique de pertinence.

The final score (tree_score) is computed by a GBDT (Gradient Boosted Decision Tree), a machine learning model used in learning-to-rank that combines all individual signals into a single relevance score.

SignalTypePlageRangeDescription
tree_score float 0 - ~10 Score composite final du GBDT. Combine tous les signaux. > 3.0 = "fit for enhancement" (utilisé par le LLM). Final GBDT composite score. Combines all signals. > 3.0 = "fit for enhancement" (used by the LLM).
model_score float 0 - 1 Probabilité de pertinence du modèle ML. Score normalisé entre 0 et 1. ML model relevance probability. Normalized score between 0 and 1.

Embeddings GTE (5 signaux)

GTE Embeddings (5 signals)

GTE (General Text Embeddings) est une famille de modèles d'embeddings développée par Alibaba DAMO Academy. Basée sur l'architecture BERT, elle existe en trois tailles (large, base, small) et calcule des vecteurs de similarité sémantique entre textes. Brave utilise GTE pour comparer la requête aux différents éléments de chaque page (titre, snippet, URL).

GTE (General Text Embeddings) is a family of embedding models developed by Alibaba DAMO Academy. Based on the BERT architecture, it comes in three sizes (large, base, small) and computes semantic similarity vectors between texts. Brave uses GTE to compare the query against different page elements (title, snippet, URL).

SignalTypePlageRangeDescription
gte_titlesfloat0 - 1 Similarité cosinus GTE entre la requête et le titre de la page. GTE cosine similarity between the query and the page title.
gte_snippetsfloat0 - 1 Similarité cosinus GTE entre la requête et le snippet. GTE cosine similarity between the query and the snippet.
gte_urlfloat0 - 1 Similarité cosinus GTE entre la requête et l'URL. GTE cosine similarity between the query and the URL.
gte_officialfloat0 - 1 Score d'officialité GTE. La métrique la plus stable par domaine, mais varie selon la fan-out query (pas purement intrinsèque). GTE official site score. Most stable per-domain metric, but varies with fan-out query (not purely intrinsic).
gte_rerankerfloat0 - 1 Score de re-classement GTE (ajustement post-ranking). GTE reranker score (post-ranking adjustment).

Modèles ML (3 signaux)

ML Models (3 signals)

MiniLM est un modèle d'embeddings compact développé par Microsoft Research, optimisé par distillation pour conserver la qualité du modèle source tout en réduisant sa taille. Brave l'utilise pour comparer la requête aux requêtes historiques associées à chaque document (données WDP/clics).

MiniLM is a compact embedding model developed by Microsoft Research, optimized through distillation to maintain source model quality while reducing size. Brave uses it to compare the query against historical queries associated with each document (WDP/click data).

SignalTypePlageRangeDescription
miniLM_0float0 - 1 Similarité cosinus MiniLM entre la requête et les top-N requêtes historiques associées au document. MiniLM cosine similarity between the query and top-N historical queries associated with the document.
qa_model_smallfloat0 - 1 Score du modèle Question-Answering compact. Évalue la pertinence question/réponse. Small Question-Answering model score. Evaluates question/answer relevance.
tr_allfloat0 - 1 Score Text Relevance agrégé combinant tous les signaux textuels. Aggregated Text Relevance score combining all text signals.

Popularity et Boost (12 signaux)

Popularity and Boost (12 signals)

L'objet bo_debug.grail contient également 7 signaux popularity_* et 5 signaux boost_*, alimentés par les données du Web Discovery Project. Dans l'ensemble de nos tests, ces 12 colonnes restent systématiquement à zéro. Ces données WDP ne sont probablement pas injectées dans le flux TAP utilisé par Ask Brave.

The bo_debug.grail object also contains 7 popularity_* signals and 5 boost_* signals, fed by Web Discovery Project data. Across all of our tests, these 12 columns remain consistently at zero. This WDP data is likely not injected into the TAP flow used by Ask Brave.

Les scores GRAIL dépendent de la fan-out query, pas du prompt utilisateur

GRAIL scores depend on the fan-out query, not the user prompt

Quand un utilisateur pose une question à Ask Brave, le LLM la décompose en sous-requêtes (fan-out queries) envoyées au moteur de recherche. C'est cette sous-requête, et non la question initiale de l'utilisateur, qui détermine les scores GRAIL attribués à chaque résultat. Nous l'avons vérifié de 3 façons :

When a user asks a question to Ask Brave, the LLM breaks it down into sub-queries (fan-out queries) sent to the search engine. It is this sub-query, not the user's original question, that determines the GRAIL scores assigned to each result. We verified this in 3 ways:

1

Le service ranking reçoit la fan-out query

Le champ query.original dans la réponse du service ranking contient toujours la fan-out query, jamais le prompt utilisateur. Vérifié sur 22 cas (100%).

1

The ranking service receives the fan-out query

The query.original field in the ranking service response always contains the fan-out query, never the user prompt. Verified on 22 cases (100%).

2

Changer la fan-out query change les scores

Pour une même URL et un même prompt utilisateur, des fan-out queries différentes produisent des scores radicalement différents. Exemple : le tree_score d'une même page passe de 0.36 à 5.84 selon la fan-out query utilisée.

2

Changing the fan-out query changes the scores

For the same URL and the same user prompt, different fan-out queries produce radically different scores. Example: the tree_score of a given page goes from 0.36 to 5.84 depending on the fan-out query used.

3

Changer le prompt ne change pas les scores

Des prompts utilisateur différents qui génèrent des fan-out queries similaires produisent des scores comparables pour les mêmes URLs. C'est bien la sous-requête qui compte, pas la formulation du prompt.

3

Changing the prompt does not change the scores

Different user prompts that generate similar fan-out queries produce comparable scores for the same URLs. It is the sub-query that matters, not how the prompt is worded.

5

BraveBot et le crawl

BraveBot & Crawling

Le crawler indépendant qui alimente l'index Brave

The independent crawler that powers the Brave index

Un crawler qui avance masqué

A crawler that operates in stealth

Le crawler principal de Brave utilise un user-agent Chrome standard, indiscernable d'un navigateur classique dans vos logs serveur. Cette approche est délibérée et documentée par Brave sur sa page d'aide dédiée : l'objectif est d'éviter la discrimination des sites qui n'autorisent que Googlebot. Brave s'aligne d'ailleurs sur les permissions de Googlebot : si une page bloque Googlebot, le crawler Brave la respecte également.

Brave's main crawler uses a standard Chrome user-agent, indistinguishable from a regular browser in your server logs. This approach is deliberate and documented by Brave on its dedicated help page: the goal is to avoid discrimination from sites that only allow Googlebot. Brave aligns with Googlebot permissions: if a page blocks Googlebot, Brave's crawler respects it too.

Mi-2025, Brave a introduit un user-agent dédié Bravebot/1.0, référencé par Cloudflare Radar dans la catégorie AI Search. Mais son activité reste marginale : en avril 2026, Bravebot n'est que le 250ème robot en volume de trafic selon Cloudflare Radar. Le gros du crawl continue de passer sous un user-agent Chrome classique.

In mid-2025, Brave introduced a dedicated Bravebot/1.0 user-agent, listed by Cloudflare Radar in the AI Search category. But its activity remains marginal: as of April 2026, Bravebot ranks only 250th in traffic volume according to Cloudflare Radar. The bulk of crawling continues under a standard Chrome user-agent.

User-agent: Bravebot
Disallow: /

Ce blocage ne couvre que la fraction identifiée du trafic. Le crawl sous user-agent Chrome et les données WDP (voir ci-dessous) ne sont pas affectés.

This blocking only covers the identified portion of traffic. Crawling under a Chrome user-agent and WDP data (see below) are not affected.

Web Discovery Project (WDP)

Web Discovery Project (WDP)

L'index Brave est enrichi par le Web Discovery Project, un système opt-in du navigateur Brave. Les utilisateurs volontaires remontent de manière anonymisée les pages qu'ils visitent. Les données transitent via le protocole STAR (k-anonymité = 20) : une URL n'est transmise au serveur que si au moins 20 utilisateurs WDP indépendants l'ont visitée. Ces URLs alimentent la file de crawl de Bravebot. Le WDP fournit également des signaux de clics et de requêtes utilisés par les modèles MiniLM de ranking. Ce canal est invisible dans les logs serveur et non bloçable par robots.txt, puisque le trafic provient d'utilisateurs réels.

The Brave index is enriched by the Web Discovery Project, an opt-in system from the Brave browser. Volunteering users anonymously share the pages they visit. Data is transmitted via the STAR protocol (k-anonymity = 20): a URL is only sent to the server if at least 20 independent WDP users have visited it. These URLs feed Bravebot's crawl queue. WDP also provides click and query signals used by the MiniLM ranking models. This channel is invisible in server logs and cannot be blocked by robots.txt, since the traffic comes from real users.

Soumettre des URLs

Submit URLs

Brave propose un formulaire de soumission sur search.brave.com/submit-url. Il n'existe pas d'équivalent à Google Search Console pour Brave Search.

Brave offers a submission form at search.brave.com/submit-url. There is no equivalent to Google Search Console for Brave Search.

Implications GEO : bloquer Bravebot retire votre site de l'index Brave, et donc des applications IA qui consomment l'API Brave Search (Claude, Grok, Mistral notamment). Bloquer Googlebot produit le même effet de manière transitive, puisque Brave s'abstient sur toute ressource interdite à Googlebot. La décision dépasse donc le seul moteur Brave Search et impacte directement votre visibilité dans l'écosystème IA.

GEO implications: blocking Bravebot removes your site from the Brave index, and therefore from AI applications that consume the Brave Search API (Claude, Grok, Mistral among others). Blocking Googlebot produces the same effect transitively, since Brave abstains from any resource forbidden to Googlebot. The decision therefore goes beyond Brave Search and directly impacts your visibility in the AI ecosystem.

6

Recommandations SEO

SEO Recommendations

Actions concrètes pour optimiser votre visibilité dans l'écosystème Brave et l'IA générative

Concrete actions to optimize your visibility in the Brave ecosystem and generative AI

Pourquoi optimiser pour Brave ? Brave Search est le seul index de recherche indépendant à l'échelle occidentale disponible commercialement via API depuis la disparition de l'API Bing en août 2025. Chaque optimisation réalisée pour Brave a un effet multiplicateur : elle améliore la visibilité non seulement dans le moteur lui-même, mais potentiellement dans l'ensemble des LLMs qu'il alimente (Claude, Grok, Le Chat, Snowflake, applications Claude MCP et des centaines d'autres).

Why optimize for Brave? Brave Search is the only independent western-scale search index commercially available via API since the Bing API was retired in August 2025. Every optimization made for Brave has a multiplier effect: it improves visibility not only in the engine itself, but potentially across all the LLMs it powers (Claude, Grok, Le Chat, Snowflake, Claude MCP applications and hundreds more).

Recommandations pour Brave Search

Recommendations for Brave Search

  1. 1. Optimisez vos titres pour la similarité sémantique (signal #1)
    Le signal gte_titles mesure la similarité cosinus entre la requête et le titre de la page. C'est le facteur le plus corrélé au tree_score final. Seuils observés : GTE_Titles > 0.90 = excellent, < 0.60 = quasi invisible. Exemple : « Meilleure imprimante 3D 2026 : guide complet » scorera bien pour la fan-out « meilleure imprimante 3D 2026 », mais « Notre sélection tech » sera invisible.
  2. 1. Optimize titles for semantic similarity (signal #1)
    The gte_titles signal measures cosine similarity between the query and the page title. It is the factor most correlated with the final tree_score. Observed thresholds: GTE_Titles > 0.90 = excellent, < 0.60 = nearly invisible. Example: "Best 3D Printer 2026: Complete Guide" scores well for the fan-out "best 3D printer 2026", but "Our Tech Selection" will be invisible.
  3. 2. Soignez vos meta descriptions (snippets)
    Le signal gte_snippets compare la requête au snippet. Des descriptions précises et informatives améliorent ce score.
  4. 2. Craft quality meta descriptions (snippets)
    The gte_snippets signal compares the query to the snippet. Precise, informative descriptions improve this score.
  5. 3. Utilisez des URLs lisibles et descriptives
    Le signal gte_url évalue la similarité sémantique de l'URL elle-même. Des slugs clairs et pertinents comptent.
  6. 3. Use readable, descriptive URLs
    The gte_url signal evaluates the semantic similarity of the URL itself. Clear, relevant slugs matter.
  7. 4. Renforcez votre autorité de domaine
    Le signal gte_official mesure l'officialité du site. Il est le plus stable par domaine mais varie selon le contexte de la requête.
  8. 4. Strengthen your domain authority
    The gte_official signal measures site officialness. It is the most stable per-domain metric but varies with query context.
  9. 5. Structurez votre contenu pour le QA
    Le signal qa_model_small évalue la pertinence question/réponse. Structurez vos pages en format Q&A quand c'est pertinent.
  10. 5. Structure content for QA
    The qa_model_small signal evaluates question/answer relevance. Structure pages in Q&A format when relevant.
  11. 6. Soumettez vos URLs
    Utilisez l'outil de soumission Brave (webmaster) pour accélérer l'indexation de vos nouvelles pages.
  12. 6. Submit your URLs
    Use the Brave submission tool (webmaster) to accelerate indexing of your new pages.
  13. 7. Mobilisez le Web Discovery Project
    Trouvez une vingtaine de personnes qui participent au programme WDP (opt-in dans le navigateur Brave) et demandez-leur de visiter vos nouvelles pages. Ces visites alimentent directement la file de crawl et les signaux de popularité de l'index Brave.
  14. 7. Leverage the Web Discovery Project
    Find around twenty people who participate in the WDP program (opt-in in the Brave browser) and ask them to visit your new pages. These visits directly feed the crawl queue and popularity signals of the Brave index.
  15. 8. Évitez les titres clickbait
    Brave dispose d'un filtre anti-spam interne (sketchy_title) qui détecte les titres sensationnalistes, le keyword stuffing et les titres artificiellement optimisés. Un titre signalé peut pénaliser votre classement dans GRAIL.
  16. 8. Avoid clickbait titles
    Brave has an internal anti-spam filter (sketchy_title) that detects sensationalist titles, keyword stuffing and artificially optimized titles. A flagged title can penalize your GRAIL ranking.
  17. 9. Exploitez les données structurées (schema.org)
    Brave classifie les pages via un champ subtype (generic, faq, qa, article, product, event, location, code). Contrairement à Google qui a déprécié les FAQ en rich results, Brave valorise toujours les données structurées. Utilisez les marquages FAQPage, Product, Event et HowTo.
  18. 9. Leverage structured data (schema.org)
    Brave classifies pages via a subtype field (generic, faq, qa, article, product, event, location, code). Unlike Google which deprecated FAQ rich results, Brave still values structured data. Use FAQPage, Product, Event and HowTo markup.
  19. 10. Configuration technique
    Soumettez un sitemap XML et minimisez la dépendance au JavaScript pour le rendu de votre contenu principal. BraveBot, comme la plupart des crawlers, peut avoir des difficultés avec le contenu rendu exclusivement côté client.
  20. 10. Technical configuration
    Submit an XML sitemap and minimize JavaScript dependency for rendering your main content. BraveBot, like most crawlers, may struggle with purely client-side rendered content.
  21. 11. Comprenez le comportement de BraveBot
    BraveBot se présente sous le user-agent d'un navigateur Chrome standard pour éviter la discrimination de sites qui n'autorisent que Googlebot. Il respecte toutefois les directives robots.txt destinées à Googlebot : si une page bloque Googlebot, BraveBot ne la crawlera pas non plus. En pratique, vos règles pour Googlebot s'appliquent aussi à Brave.
  22. 11. Understand BraveBot's behavior
    BraveBot uses a standard Chrome browser user-agent to avoid discrimination from sites that only allow Googlebot. However, it respects robots.txt directives intended for Googlebot: if a page blocks Googlebot, BraveBot won't crawl it either. In practice, your Googlebot rules also apply to Brave.

Exploitez les Goggles

Leverage Goggles

Les Goggles sont des fichiers texte contenant des règles de re-ranking personnalisé (syntaxe : $boost=3,site=votredomaine.com). Ils permettent de modifier l'ordre des résultats selon vos propres critères.

Goggles are text files containing custom re-ranking rules (syntax: $boost=3,site=yoursite.com). They allow you to modify result ordering based on your own criteria.

  1. 1. Créez un Goggle thématique pour votre verticale (ex : « blogs cybersecurité francophones ») incluant naturellement vos contenus parmi d'autres sources de qualité.
  2. 1. Create a thematic Goggle for your vertical (e.g. "French cybersecurity blogs") naturally including your content among other quality sources.
  3. 2. Distribuez ce Goggle à votre communauté comme outil de curation.
  4. 2. Distribute this Goggle to your community as a curation tool.
  5. 3. Les Goggles fonctionnent aussi avec le LLM Context API, permettant de restreindre le grounding IA à des sources de confiance.
  6. 3. Goggles also work with the LLM Context API, allowing you to restrict AI grounding to trusted sources.

Ressources : Créer un Goggle

Resources: Create a Goggle

Recommandations pour Ask Brave (recherche IA)

Recommendations for Ask Brave (AI search)

  1. 1. Comprenez les fan-out queries
    Les scores GRAIL dépendent des fan-out queries (sous-requêtes générées par le LLM), pas du prompt utilisateur. Couvrez un large spectre sémantique pour apparaître dans différentes sous-requêtes.
  2. 1. Understand fan-out queries
    GRAIL scores depend on fan-out queries (sub-queries generated by the LLM), not the user prompt. Cover a broad semantic spectrum to appear in different sub-queries.
  3. 2. Surveillez votre visibilité IA
    Utilisez l'outil interactif GRAIL pour tester régulièrement vos requêtes clés et suivre l'évolution de vos scores dans les réponses de Ask Brave.
  4. 2. Monitor your AI visibility
    Use the interactive GRAIL tool (section 2) to regularly test your key queries and track your score evolution in Ask Brave responses.
  5. 3. Optimisez pour le Summarizer
    Le Summarizer de Brave extrait depuis les snippets via un modèle QA. Privilégiez des phrases courtes et denses en information. Incluez des citations in-text (« Selon [source]... ») pour renforcer la crédibilité. Utilisez les propriétés schema sameAs, about, mentions pour connecter votre contenu au graphe de connaissances.
  6. 3. Optimize for the Summarizer
    Brave's Summarizer extracts from snippets via a QA model. Favor short, information-dense sentences. Include in-text citations ("According to [source]...") to boost credibility. Use schema properties sameAs, about, mentions to connect your content to the knowledge graph.

OFFELIA : le système de scoring news

OFFELIA: the news scoring system

Les résultats d'actualités ne passent pas par GRAIL. Ils sont scorés par un système distinct appelé OFFELIA, qui utilise des embeddings BGE (Beijing Academy of AI) au lieu des GTE d'Alibaba. Les métriques OFFELIA incluent bge_score, netloc_popularity, url_popularity, inklinks et un model_score distinct. Le score final OFFELIA (0.997-0.9999) est beaucoup plus compressé que le tree_score GRAIL.

News results do not go through GRAIL. They are scored by a separate system called OFFELIA, which uses BGE embeddings (Beijing Academy of AI) instead of Alibaba's GTE. OFFELIA metrics include bge_score, netloc_popularity, url_popularity, inklinks and a distinct model_score. The OFFELIA final score (0.997-0.9999) is much more compressed than GRAIL's tree_score.

Implication SEO : pour apparaître dans les résultats news de Brave, publiez du contenu d'actualité frais et régulièrement mis à jour. La netloc_popularity et la url_popularity suggèrent que la notoriété du domaine dans le contexte news joue un rôle important.

SEO implication: to appear in Brave's news results, publish fresh and regularly updated news content. The netloc_popularity and url_popularity metrics suggest that domain reputation in the news context plays an important role.

Outils de suivi de positionnement

Rank tracking tools

La majorité des outils SEO classiques (Ahrefs, Semrush) ne supportent pas nativement le suivi de positionnement dans Brave Search. Solutions existantes :

Most traditional SEO tools (Ahrefs, Semrush) don't natively support rank tracking in Brave Search. Existing solutions:

  • Rankability : suivi sur 11 plateformes dont Brave
  • Rankability: tracking across 11 platforms including Brave
  • AWR (Advanced Web Ranking) : support de 4 000+ moteurs de recherche dont Brave, tracking pixel-position
  • AWR (Advanced Web Ranking): 4,000+ search engines including Brave, pixel-position tracking
  • Ranktracker : support partiel avec monitoring de requêtes
  • Ranktracker: partial support with query monitoring

Méthode DIY : utilisez l'API Brave Search (5 $/1 000 requêtes) pour interroger programmatiquement vos mots-clés cibles et suivre vos positions. Surveillez également le referrer search.brave.com dans Google Analytics 4 pour mesurer le trafic provenant de Brave.

DIY method: use the Brave Search API ($5/1,000 queries) to programmatically query your target keywords and track your positions. Also monitor the search.brave.com referrer in Google Analytics 4 to measure traffic from Brave.

Comprendre le grounding des LLMs

Understanding LLM Grounding

Ces découvertes dépassent le cadre de Brave Search. Elles permettent de mieux comprendre ce qui se passe entre la phase de retrieval (récupération des documents) et la réponse finale d'un LLM. Les 22 signaux GRAIL révèlent le type de métriques qu'un système de grounding via moteur de recherche utilise pour filtrer, classer et sélectionner les sources avant de les transmettre au modèle de langage.

These discoveries go beyond Brave Search. They help understand what happens between the retrieval phase (document fetching) and the final LLM response. The 22 GRAIL signals reveal the type of metrics a search engine-based grounding system uses to filter, rank and select sources before passing them to the language model.

Ce mécanisme de grounding n'est pas spécifique à Brave. Des systèmes comparables sont utilisés par ChatGPT (via Bing), les AI Overviews de Google, et plus généralement par toute application d'AIM (AI Mode) ou d'AIO (AI Overview) qui s'appuie sur un index de recherche pour ancrer ses réponses dans des sources vérifiables. GRAIL nous donne, pour la première fois, une vue détaillée de ces signaux intermédiaires.

This grounding mechanism is not specific to Brave. Comparable systems are used by ChatGPT (via Bing), Google's AI Overviews, and more broadly by any AIM (AI Mode) or AIO (AI Overview) application that relies on a search index to anchor its responses in verifiable sources. GRAIL gives us, for the first time, a detailed view of these intermediate signals.

IBOU

Et si demain les LLMs avaient le choix ?

What if tomorrow LLMs had a choice?

Depuis la fermeture de l'API Bing en août 2025, quand Claude, Grok ou Mistral ont besoin d'un index web, c'est Brave ou... Brave. Le marché se resserre. Mais nos amis de chez IBOU sont en train de construire un index souverain français de 2 000 milliards de documents, soutenu par Xavier Niel. Le jour où les LLMs pourront choisir entre Brave et IBOU pour leur grounding, on aura gagné quelque chose d'important. Et on publiera une infographie « Les 42 signaux secrets du moteur IBOU » ^^

Since the Bing API shutdown in August 2025, when Claude, Grok or Mistral need a web index, it's Brave or... Brave. The market is narrowing. But our friends at IBOU are building a sovereign French index of 2 trillion documents, backed by Xavier Niel. The day LLMs can choose between Brave and IBOU for their grounding, we'll have gained something important. And we'll publish an "IBOU Engine: 42 Secret Signals Decoded" infographic ^^

Big up à toute l'équipe. L'AI Search a besoin de vous.

Big up to the whole team. AI Search needs you.

ibou.io

Other cool stuffs

Feb 2026 David Konitzny - Inside Ask Brave: understanding AI-assisted search Feb 2026 Inside ChatGPT Search Jan 2026 Complete analysis of OpenAI's A/B testing system Jan 2026 LLM Crawler Report More stuffs...