Key information, interactive analyses, dedicated plugin, technical discoveries and explanations of Google's AI Overviews (AIO) and AI Mode (AIM): hidden grounding URLs, citation pipelines, entity graphs, and more. Informations clés, analyses interactives, présentation du plugin dédié, découvertes et explications techniques des AI Overview (AIO) et AI Mode (AIM) de Google : URLs de grounding cachées, pipelines de citations, graphes d'entités, et plus.


Generative AI search systems (Google AI Overviews, AI Mode, ChatGPT Search) rely on a grounding mechanism: before generating a response, the system retrieves a set of candidate URLs as a factual basis. Some of these URLs will actually inform the generation, others will be completely ignored by the model. And among those retained, only a fraction will appear as clickable citations shown to the user. In our work reverse-engineering ChatGPT, we identified these as "hidden links": URLs used internally for grounding but never surfaced to the user.
This distinction matters. Several AI visibility studies have drawn conclusions about the most frequently cited domains without separating initial candidate URLs (grounding) from those actually shown to the user. Their findings are therefore skewed, sometimes significantly. And even among URLs that do get selected for display, their placement (in-text near the top, lateral sidebar, collapsed sidebar, image carousel, small paperclip icon at the end) determines actual visibility far more than mere presence.
Les systèmes d'IA générative utilisés dans la recherche (Google AI Overviews, AI Mode, ChatGPT Search) s'appuient sur un mécanisme de grounding : avant de générer une réponse, le système récupère un ensemble d'URLs candidates qui serviront de base factuelle. Certaines seront effectivement utilisées dans la génération, d'autres seront complètement ignorées par le modèle. Et parmi celles retenues, seule une fraction sera affichée à l'utilisateur sous forme de citations cliquables. Dans notre travail de reverse-engineering de ChatGPT, nous les avons identifiées sous le terme "hidden links" : des URLs utilisées en interne pour le grounding mais jamais montrées à l'utilisateur.
Cette distinction est fondamentale. De nombreuses études de visibilité dans les IA ont tiré des conclusions sur les domaines les plus cités sans séparer les URLs candidates initiales (grounding) de celles réellement montrées à l'utilisateur. Leurs résultats sont donc biaisés, parfois de façon significative. Et même parmi les URLs effectivement affichées, leur emplacement (in-text en début de réponse, sidebar latérale, sidebar repliée, carousel d'images, icône trombone en fin de réponse) détermine bien plus la visibilité réelle que la simple présence.
FastSearch is derived from RankEmbed-BERT, Google's embedding-based retrieval system. It represents the final phase of information retrieval, producing abbreviated ranked results that a model can use for grounding. The trade-off: FastSearch delivers results faster than RankEmbed-BERT, but with lower quality. Google exposes it to third-party GenAI tools via Vertex AI in the Cloud, though it notably denied ChatGPT access to this system.
An open question remains: does AI Overviews rely on FastSearch, or does it tap directly into the initial result sets from RankEmbed-BERT before the reranking stage (via Twiddlers notably)? The internal pipeline would likely deliver higher-quality grounding than the FastSearch shortcut. AI Mode, on the other hand, has more tools at its disposal and can perform multiple fan-outs, functioning more like an orchestrator with agentic capabilities, though AI Overviews is probably also evolving in that direction.
FastSearch est dérivé de RankEmbed-BERT, le système de retrieval par embeddings de Google. Il représente la phase finale d'information retrieval, produisant des résultats web abrégés et classés qu'un modèle peut utiliser pour le grounding. Le compromis : FastSearch livre des résultats plus rapidement que RankEmbed-BERT, mais avec une qualité moindre. Google l'expose aux outils GenAI tiers via Vertex AI dans le Cloud, tout en ayant refusé cet accès à ChatGPT.
Une question reste ouverte : AI Overviews s'appuie-t-il sur FastSearch, ou exploite-t-il directement les premiers jeux de résultats de RankEmbed-BERT avant l'étape de reranking (via les Twiddlers notamment) ? Le pipeline interne offrirait vraisemblablement un grounding de meilleure qualité que le raccourci FastSearch. AI Mode, de son côté, dispose de davantage d'outils et peut effectuer du multiple fan-out, fonctionnant davantage comme un orchestrateur avec des capacités agentiques, bien qu'AI Overviews évolue sans doute aussi progressivement dans cette direction.
AI Overviews and AI Mode rely extensively on Google's Knowledge Graph to disambiguate retrieved documents and perform the fact-checking needed to limit hallucinations. Beyond the traditional Knowledge Graph, two additional graphs are mobilized: the Shopping Graph (over 50 billion referenced products) and the Places Graph (Google Maps), which anchor responses in structured data about products and locations.
Source: "AI Overviews and AI Mode in Search", Google, May 2025. See also: KG Mining Infographic
AI Overviews et AI Mode s'appuient largement sur le Knowledge Graph de Google pour désambiguïser les documents récupérés et effectuer le fact-checking nécessaire pour limiter les hallucinations. Au-delà du Knowledge Graph traditionnel, deux autres graphes sont mobilisés : le Shopping Graph (plus de 50 milliards de produits référencés) et le Graph des Places (Google Maps), qui permettent d'ancrer les réponses dans des données structurées sur les produits et les lieux.
Source : "AI Overviews and AI Mode in Search", Google, mai 2025. Voir aussi : KG Mining Infographic
We've dissected the system to extract, among other things, the hidden grounding URLs from AI Overviews and the evidence of AI Mode's deep integration with the Knowledge Graph. Open DevTools (F12) on any Google search page, right-click on <html> in the Elements tab, select Copy → Copy outerHTML, and paste the result below.
Nous avons décortiqué le système pour pouvoir extraire, entre autres, les URLs de grounding cachées d'AI Overview et les preuves de l'ancrage d'AI Mode dans le Knowledge Graph. Ouvrez les DevTools (F12) sur une page de recherche Google, faites un clic droit sur <html> dans l'onglet Elements, sélectionnez Copy → Copy outerHTML, et collez le résultat ci-dessous.
The interactive demo above gives a snapshot of what AIO and AI Mode return for a single query. The Chrome extension goes further: it captures data silently in the background on every Google search, stores everything locally, and opens up analysis features that a one-shot demo cannot offer. Aggregated stats, cross-query comparisons, entity tracking across sessions.
La démo interactive ci-dessus donne un aperçu de ce qu'AIO et AI Mode renvoient pour une requête donnée. Le plugin Chrome va plus loin : il capture les données en tâche de fond sur chaque recherche Google, stocke tout en local, et donne accès à des fonctionnalités d'analyse impossibles dans une démo ponctuelle. Stats agrégées, comparaisons inter-requêtes, suivi des entités entre sessions.
Full Grounding → Pool (candidates with initial ranking) → Displayed (reranked) pipeline. Detailed URL table with position and organic match. Kept/dropped/injected badges show how each URL flows through stages.
Pipeline complet Grounding → Pool (candidats avec classement initial) → Affichées (re-classées). Tableau détaillé des URLs avec position et correspondance organique. Badges conservé/supprimé/injecté montrant le parcours de chaque URL à travers les étapes.
Entities detected at the AIO level do not carry Knowledge Graph MIDs. They link to other search results instead. The extension captures these entity references alongside text fragments extracted from source pages.
Les entités détectées au niveau d'AIO ne portent pas de MID du Knowledge Graph. Elles renvoient vers d'autres résultats de recherche. Le plugin capture ces références d'entités ainsi que les fragments de texte extraits des pages sources.
AI Mode, unlike AIO, exposes actual KG MIDs (/m/xxx or /g/xxx) through the kgmid parameter. Capture of Knowledge Graph entities that AI Mode uses to anchor its responses for disambiguation and fact-checking, along with text fragments.
AI Mode, contrairement à AIO, expose les vrais MID du KG (/m/xxx ou /g/xxx) via le paramètre kgmid. Capture des entités du Knowledge Graph sur lesquelles AI Mode ancre ses réponses pour désambiguisation et vérification factuelle, ainsi que les fragments de texte.
Extraction of in-text links embedded directly in the AI response and #:~:text= fragments. Sections correspond to the thematic groupings the AI creates when structuring its answer, each section gathering the sources it drew from. Shows exactly which passages the AI relied on, and how it organized them.
Extraction des liens in-text intégrés directement dans la réponse IA et des fragments #:~:text=. Les sections correspondent aux regroupements thématiques que l'IA effectue en structurant sa réponse, chaque section rassemblant les sources mobilisées. Montre précisément quels passages l'IA a utilisés, et comment elle les a organisés.
Shopping Graph products and Google Maps places with their MIDs. Reveals how Google integrates its entity databases directly into AI Mode responses.
Produits du Shopping Graph et lieux Google Maps avec leurs MID. Montre comment Google intègre ses bases d'entités directement dans les réponses AI Mode.
Same query, two surfaces: AIO and AI Mode. The Venn diagram exposes how little the cited URLs overlap between the two. Different retrieval strategies, different source sets for the same intent. The tool also compares AI response URLs against organic SERP results to measure how much the AI answer diverges from traditional rankings.
Même requête, deux surfaces : AIO et AI Mode. Le diagramme de Venn montre à quel point les URLs citées se recoupent peu entre les deux. Stratégies de récupération différentes, jeux de sources distincts pour une même intention. L'outil compare aussi les URLs des réponses IA avec les résultats organiques de la SERP pour mesurer l'écart avec le classement traditionnel.
The extension stores all captured data and builds aggregated charts across every AI response collected. Top domains in cited or grounding URLs, most referenced pages. On AI Mode captures, publication dates are sometimes available, which makes it possible to analyze the overall freshness of URLs used by the AI.
Le plugin stocke toutes les données capturées et construit des graphiques agrégés sur l'ensemble des réponses IA collectées. Domaines les plus visibles dans les URLs citées ou de grounding, pages les plus référencées. Sur les captures AI Mode, les dates de publication sont parfois disponibles, ce qui permet d'analyser la fraîcheur globale des URLs utilisées par l'IA.
The tool generates a tag cloud from all text fragments collected across analyzed searches. A way to identify the recurring terms the AI latches onto when sourcing its responses. You can also download the full list of URLs and their associated text fragments across all analyzed queries, for deeper analysis in your own tools.
L'outil génère un tag cloud à partir de tous les fragments de texte récoltés sur l'ensemble des recherches analysées. Un moyen d'identifier les termes récurrents sur lesquels l'IA se rattache pour sourcer ses réponses. Vous pouvez aussi télécharger l'intégralité des URLs et de leurs fragments de texte associés pour toutes les requêtes analysées, afin de pousser l'analyse plus loin dans vos propres outils.
aio-aim-inspector.zipchrome://extensions/aio-aim-inspector.zipchrome://extensions/Google frequently changes its source code. The extension may become outdated or return incomplete data at any time. We will do our best to keep it up to date. When an update is available, simply re-download the ZIP, replace the old folder, and click Reload on chrome://extensions/.
Google modifie régulièrement son code source. L'extension peut devenir obsolète ou remonter des informations incomplètes à tout moment. Nous ferons notre possible pour la maintenir à jour. En cas de mise à jour, il suffira de re-télécharger le ZIP, remplacer l'ancien dossier, et cliquer sur Recharger dans chrome://extensions/.
Observations from reverse-engineering AI Overviews and AI Mode with AIO/AIM Inspector. Not a finished study, but a set of patterns worth sharing. Observations issues du reverse-engineering d'AI Overview et AI Mode avec notre plugin. Pas une étude clôturée, mais un ensemble de schémas qui méritent d'être partagés.
The AIO citation pipeline is not a simple retrieval. It works in four successive stages, each narrowing the URL set and reordering it:
Le pipeline de citations AIO n'est pas une simple requête. Il fonctionne en quatre étapes successives, chacune réduisant l'ensemble des URLs et les réordonnant :
We don't know the exact pipeline for AIO/AIM. FastSearch was described in the context of Gemini's grounding capabilities broadly, but it is not confirmed that AIO and AIM use FastSearch specifically. Google may have a dedicated, more sophisticated retrieval system for Search products. AIO sometimes appears to use standard organic results directly as grounding sources. The retrieval system may differ between AIO and AIM, or vary by query type. Google may use a hybrid approach: organic results for some queries, a lighter retrieval for others.
Nous ne connaissons pas le pipeline exact d'AIO/AIM. FastSearch a été décrit dans le contexte des capacités de grounding de Gemini au sens large, mais il n'est pas confirmé qu'AIO et AIM utilisent FastSearch spécifiquement. Google pourrait disposer d'un système de récupération dédié et plus sophistiqué pour ses produits Search. AIO semble parfois utiliser directement les résultats organiques standard comme sources de grounding. Le système de récupération pourrait différer entre AIO et AIM, ou varier selon le type de requête. Google pourrait également utiliser une approche hybride : résultats organiques pour certaines requêtes, une récupération plus légère pour d'autres.
The first stage is Information Retrieval (IR): the search engine selects an initial list of a few dozen to a few hundred candidate results. Our hypothesis is that Google likely uses higher-quality data than FastSearch for AIO/AIM, sourced from Mustang and sent directly to Superroot after passing through RankEmbed BERT. The grounding URLs visible in the parsed data are already a filtered subset of this initial IR list: the position field values in the data are non-contiguous, confirming that not all IR candidates are retained. From that filtered set, a first selection produces what we call the Pool, which includes the grounding URLs that survived ranking but also, sometimes, additional URLs that were not in the original grounding set. The final step is a reranking operated by Gemini itself, which decides what is actually displayed to the user and may reject some Pool URLs along the way.
La première étape est la recherche d'information (IR) : le moteur de recherche sélectionne une liste initiale de quelques dizaines à quelques centaines de résultats candidats. Notre hypothèse est que Google utilise probablement des données de meilleure qualité que FastSearch pour AIO/AIM, provenant de Mustang et envoyées directement à Superroot après passage par RankEmbed BERT. Les URLs de grounding visibles dans les données analysées sont déjà un sous-ensemble filtré de cette liste IR initiale : les valeurs du champ position dans les données sont non contiguës, confirmant que tous les candidats IR ne sont pas retenus. À partir de cet ensemble filtré, une première sélection produit ce qu'on appelle le Pool, qui inclut les URLs de grounding ayant survécu au classement mais aussi, parfois, des URLs complémentaires absentes du jeu de grounding initial. La dernière étape est un reranking opéré par Gemini lui-même, qui décide de ce qui est réellement affiché à l'utilisateur et peut rejeter certaines URLs du Pool au passage.
Grounding set size varies wildly. Depending on the query, the number of grounding URLs ranges from fewer than 5 to over 50. There is no fixed quota; the system scales the retrieval depth to the query's complexity and the available corpus.
La taille du jeu de grounding varie énormément. Selon la requête, le nombre d'URLs de grounding va de moins de 5 à plus d'une cinquantaine. Il n'y a pas de quota fixe ; le système adapte la profondeur de récupération à la complexité de la requête et au corpus disponible.
Injected URLs are almost exclusively videos. The additional URLs that appear in the Pool without being part of the original grounding set are, in the vast majority of cases, YouTube videos. We also spotted a few from Meta or Instagram, but YouTube dominates this injection mechanism.
Les URLs injectées sont quasi exclusivement des vidéos. Les URLs supplémentaires qui apparaissent dans le Pool sans provenir du jeu de grounding initial sont, dans la grande majorité des cas, des vidéos YouTube. Nous avons aussi repéré quelques résultats Meta ou Instagram, mais YouTube domine ce mécanisme d'injection.
Some Pool URLs get rejected before display. Not every URL that makes it into the Pool ends up visible to the user. Gemini's final reranking can drop URLs that survived the first cut. We observe this regularly, with no obvious pattern yet explaining which ones get discarded.
Certaines URLs du Pool sont rejetées avant affichage. Toutes les URLs qui atteignent le Pool ne finissent pas visibles par l'utilisateur. Le reranking final de Gemini peut écarter des URLs ayant passé la première sélection. Nous l'observons régulièrement, sans qu'un schéma clair n'explique encore lesquelles sont supprimées.
Grounding URLs present even when no AIO block is shown. This is a key finding. Even when the user sees no AI Overview block on the SERP, the grounding URLs are often already embedded in the page's source code. They are pre-loaded, ready to go. This is likely a latency optimization, but it also suggests that Tangram, which ingests Glue and NavBoost signals and decides which features to trigger on each SERP, can choose to show or hide the AIO block on a per-user basis for the same query, depending on personalization parameters.
URLs de grounding présentes même sans bloc AIO affiché. C'est une observation clé. Même lorsque l'utilisateur ne voit aucun bloc AI Overview sur la SERP, les URLs de grounding sont souvent déjà intégrées dans le code source de la page. Elles sont pré-chargées, prêtes à servir. C'est probablement une optimisation de latence, mais cela suggère aussi que Tangram, qui ingère les signaux de Glue et NavBoost et décide des features à déclencher sur chaque SERP, peut choisir d'afficher ou de masquer le bloc AIO par utilisateur pour une même requête, selon les paramètres de personnalisation.
No grounding, but an AIO block anyway. In rare cases, we see the inverse: no grounding URLs at all, yet an AIO block is displayed. In these situations, the organic SERP results appear to serve as the grounding source, but in a different order than the standard organic ranking. Google seems to do this when it has high confidence in the quality of its organic results for the query.
Pas de grounding, mais un bloc AIO quand même. Dans de rares cas, nous observons l'inverse : aucune URL de grounding, et pourtant un bloc AIO affiché. Dans ces situations, ce sont les résultats organiques de la SERP qui semblent servir de source de grounding, mais dans un ordre différent du classement organique standard. Google semble procéder ainsi lorsqu'il a une forte confiance dans la qualité de ses résultats organiques pour la requête.
In-text entities without MIDs. Some entities highlighted in the AIO text do not carry a Knowledge Graph MID. Instead, they link to internal Google searches on terms that are recognized as entities but have no MID attached. Our plugin captures these entity links from the AIO text content alongside the MID-bearing ones, which gives a fuller picture of how the model parses the topic.
Entités in-text sans MID. Certaines entités mises en évidence dans le texte de l'AIO ne portent pas de MID du Knowledge Graph. Elles renvoient plutôt vers des recherches internes Google sur des termes reconnus comme entités mais sans MID affiché. Notre plugin capture ces liens d'entités dans le contenu texte des AIO, aux côtés de celles porteuses d'un MID, ce qui donne une image plus complète de la façon dont le modèle découpe le sujet.
Where standard SERPs only surface a Knowledge Graph MID when a Knowledge Panel is triggered (and only one at a time), AI Mode exposes the entity graph much more broadly. When the query revolves around one or more named entities, we can identify precisely which MID(s) the model anchors its response to. This mechanism serves several functions:
Là où les SERP classiques n'exposent un MID du Knowledge Graph que lorsqu'un Knowledge Panel est déclenché (et un seul à la fois), AI Mode expose le graphe d'entités de manière bien plus large. Lorsque la requête tourne autour d'une ou plusieurs entités nommées, on peut identifier précisément quel(s) MID le modèle utilise pour ancrer sa réponse. Ce mécanisme remplit plusieurs fonctions :
We were not able to recover the grounding URLs for AI Mode. That part of the process runs entirely server-side, unlike AIO where grounding data is embedded in the page source. What we do capture are the citations surfaced to the user, and these carry useful signals:
Nous n'avons pas réussi à récupérer les URLs de grounding pour AI Mode. Cette partie du processus se déroule entièrement côté serveur, contrairement à AIO où les données de grounding sont embarquées dans le code source de la page. Ce qu'on capture, ce sont les citations remontées à l'utilisateur, et elles portent des signaux utiles :
#:~:text=) are the specific paragraphs Google links the user to when they click a citation. They likely indicate the exact passage the AI considered most relevant to answer the query. Studying them across many captures could help identify what types of content are most useful to the model.#:~:text=) sont les paragraphes précis vers lesquels Google renvoie l'utilisateur lorsqu'il clique sur une citation. Ils indiquent vraisemblablement le passage exact que l'IA a considéré comme le plus pertinent pour répondre à la requête. Leur étude à travers de nombreuses captures pourrait aider à identifier les types de contenus les plus utiles au modèle.A recurring observation: AIO and AI Mode are not two views of the same pipeline. For a given query, the overlap in cited URLs between the two is remarkably low. The retrieval strategies differ, the source sets differ, the ranking criteria differ. The same applies when comparing AI Overview and AI Mode citations against organic SERP results: they share very few URLs. These are fundamentally different systems that happen to coexist on the same search platform.
Une observation récurrente : AIO et AI Mode ne sont pas deux vues du même pipeline. Pour une requête donnée, le recoupement d'URLs citées entre les deux est remarquablement faible. Les stratégies de récupération diffèrent, les jeux de sources diffèrent, les critères de classement diffèrent. Même constat en comparant les citations AI Overview et AI Mode avec les résultats organiques de la SERP : très peu d'URLs en commun. Ce sont des systèmes fondamentalement différents qui cohabitent sur la même plateforme de recherche.
Work in progressTravail en cours
There is much more to dig into. Edge cases to document, patterns to confirm across larger datasets, behaviors that change between query types and verticals. Rather than wait for a polished conclusion, we chose to release the tool now and share what we have. The SEO community already knows how to fish; we would rather hand out the rod than serve up pre-packaged catches. Install the extension, run your own queries, challenge what we found. The interesting part is everything that has not been mapped yet. Il reste beaucoup de choses à creuser. Des cas limites à documenter, des patterns à confirmer sur des jeux de données plus larges, des comportements qui changent selon les types de requêtes et les verticales. Plutôt que d'attendre une conclusion polie, nous avons choisi de publier l'outil maintenant et de partager ce que nous avons. La communauté SEO sait déjà pêcher ; on préfère fournir la canne à pêche à ceux qui savent s'en servir plutôt que de donner le poisson directement à tout le monde. Installez l'extension, lancez vos propres requêtes, challengez nos observations. Le plus intéressant, c'est tout ce qui n'a pas encore été cartographié.
Want to parse all this shit by yourself? Trust us, it's an absolute nightmare to parse ^^ Give this .md to your favorite AI (but you'll owe us 1M tokens 😬) Envie de parser toute cette merde vous-même ? (croyez-nous, c'est une vraie galère à parser) Donnez ce .md à votre IA préférée (mais vous nous devrez 1M tokens 😬)
How Google's AI search features work under the hood, based on court testimony, patent filings, reverse engineering and parsed data. Fonctionnement technique des réponses IA de Google Search, à partir de témoignages judiciaires, d'analyses de brevets, de rétro-ingénierie et de données parsées.
The integration of generative AI into Google Search follows a precise three-phase trajectory, each phase expanding the role of the LLM while narrowing the user's ability to opt out.
L'intégration de l'IA générative dans Google Search suit une trajectoire en trois phases, chacune élargissant le rôle du LLM tout en réduisant la possibilité pour l'utilisateur de ne pas y être exposé.
AIO and AIM share the same Gemini model family and the same grounding logic, but they differ on nearly every other technical dimension. The table below reflects what we observe from parsed SERP data and confirmed public sources.
AIO et AIM partagent la même famille de modèles Gemini et la même logique de grounding, mais ils diffèrent sur presque toutes les autres dimensions techniques. Le tableau ci-dessous reflète ce que nous observons à partir des données parsées de la SERP et des sources publiques confirmées.
| DimensionDimension | AI Overviews (AIO) | AI Mode (AIM) |
|---|---|---|
| UX positionPosition UX | Summary overlay at the top of the standard SERPRésumé overlay en haut de la SERP standard | Dedicated conversational interface (tab, udm=50)Interface conversationnelle dédiée (onglet, udm=50) |
| TriggerDéclenchement | Automatic, when Google deems it usefulAutomatique, quand Google le juge utile | User-initiatedInitié par l'utilisateur |
| ConversationalConversationnel | No (one-shot)Non (one-shot) | Yes, multi-turn via mstk session tokensOui, multi-tours via tokens de session mstk |
| Query processingTraitement de la requête | Standard retrieval + LLM synthesisRécupération standard + synthèse LLM | Query fan-out: 8-12 parallel sub-queries (hundreds in Deep Search)Query fan-out : 8-12 sous-requêtes parallèles (centaines en Deep Search) |
| Observable grounding pipelinePipeline de grounding observable | 3-stage: Grounding → Pool → Displayed3 étapes : Grounding → Pool → Affiché | Simplified: Citations + Sidebar sourcesSimplifié : Citations + Sources sidebar |
| Entity typesTypes d'entités | Entity linksLiens d'entités | Knowledge Graph + Shopping Graph + Maps/PlacesKnowledge Graph + Shopping Graph + Maps/Places |
| Response HTML sizeTaille HTML de la réponse | ~50-150 KB (concise)~50-150 Ko (concis) | ~750 KB per turn (comparable to a full Wikipedia article)~750 Ko par tour (comparable à un article Wikipedia complet) |
Both AIO and AIM follow a RAG pattern: the model searches first, then generates a response anchored in the retrieved results. Google Cloud defines grounding as "the ability to connect model output to verifiable sources of information," which "reduces the chances of inventing content." The Firebase documentation states explicitly: "Grounding with Google Search solves this problem by allowing Gemini to perform a real-time search before it generates an answer."
The patent US11769017B1 ("Generative Summaries for Search Results," filed March 2023, granted September 2023) describes this pipeline: the system receives a query, selects Search Result Documents (SRDs), extracts content snippets, and processes them via an LLM to generate a natural-language summary. A notable detail: the system has multiple candidate generative models and dynamically selects one based on query classification and result types.
Dan Petrovic's analysis of this accidental leak (May 2025) provided deep insights into Gemini's internal grounding process, confirming and expanding earlier findings from his series on Gemini's grounding decision process. During a test scenario, Gemini inadvertently disclosed its internal indexing mechanism: responses included marks like [6.2], where the first digit identifies which search query was executed (e.g., the 6th) and the second identifies which result from that query is referenced (e.g., the 2nd). This maps directly to Gemini's internal GoogleSearch.PerQueryResult(index='6.2', ...) function calls.
This proves the model maintains an ordered cache of retrieval results, not just raw text blobs, but a granular, structured index with a precise mapping between each claim and its source. The leak also revealed Gemini's core operational loop: a Thinking stage (analyzing the query, planning tool calls) followed by an Action stage (executing Google Search or Conversation Retrieval tools, then synthesizing the response). Every fact must be externally verified via built-in tools before being served to the user. Gemini is explicitly instructed to never rely on its internal knowledge alone.
This aligns with what our plugin captures at the HTML level: the grounding URLs, the position fields in citation data, and the text fragment directives all reflect this same structured retrieval-then-verify pipeline that Dan Petrovic exposed from the model's internal perspective.
The grounding URLs are not all visible to users. Our parsed data reveals three distinct layers:
Real numbers from our captures illustrate the gap between visible and hidden sources:
| Query type | Visible | Total (scripts) | Hidden |
|---|---|---|---|
| Travel (Japan spring) | 15 | 26 | 11 |
| Shopping (headphones) | ~40 | 29+ | 4 |
| Culture (impressionism) | 20 | 20 | 0 |
For AIO specifically, the Grounding → Pool → Displayed pipeline is the observable manifestation of this RAG architecture. Each transition involves filtering and reranking. Some citations end up "rejected": the model generated text that couldn't be properly attributed back to those sources.
Google Search Central confirms the eligibility criteria: "To be eligible to be shown as a supporting link in AI Overviews or AI Mode, a page must be indexed and eligible to be shown in Google Search with a snippet. There are no additional technical requirements."
AIO comme AIM suivent un pattern RAG : le modèle cherche d'abord, puis génère une réponse ancrée dans les résultats récupérés. Google Cloud définit le grounding comme « la capacité de relier la sortie du modèle à des sources d'information vérifiables », ce qui « réduit les risques d'inventer du contenu ». La documentation Firebase indique explicitement : « Le grounding avec Google Search résout ce problème en permettant à Gemini d'effectuer une recherche en temps réel avant de générer une réponse. »
Le brevet US11769017B1 (« Generative Summaries for Search Results », déposé mars 2023, accordé septembre 2023) décrit ce pipeline : le système reçoit une requête, sélectionne des Search Result Documents (SRDs), en extrait des snippets, puis les traite via un LLM pour produire un résumé. Un détail notable : le système dispose de plusieurs modèles génératifs candidats et sélectionne dynamiquement le plus adapté selon la classification de la requête.
L'analyse de Dan Petrovic de cette fuite accidentelle (mai 2025) a fourni un éclairage profond sur le processus interne de grounding de Gemini, confirmant et élargissant ses découvertes antérieures dans sa série sur le processus de décision de grounding de Gemini. Lors d'un scénario de test, Gemini a involontairement révélé son mécanisme d'indexation interne : les réponses contenaient des marqueurs comme [6.2], où le premier chiffre identifie la requête de recherche exécutée (ex. la 6ème) et le second identifie le résultat référencé dans cette requête (ex. le 2ème). Cela correspond directement aux appels internes GoogleSearch.PerQueryResult(index='6.2', ...) de Gemini.
Cela prouve que le modèle maintient un cache ordonné des résultats de récupération, pas de simples blocs de texte brut, mais un index granulaire et structuré avec un mapping précis entre chaque affirmation et sa source. La fuite a également révélé la boucle opérationnelle de Gemini : une étape de Réflexion (analyse de la requête, planification des appels d'outils) suivie d'une étape d'Action (exécution de Google Search ou Conversation Retrieval, puis synthèse de la réponse). Chaque fait doit être vérifié via les outils intégrés avant d'être présenté à l'utilisateur. Gemini a l'instruction explicite de ne jamais se fier uniquement à ses connaissances internes.
Cela rejoint ce que notre plugin capture au niveau HTML : les URLs de grounding, les champs position dans les données de citations, et les directives de text fragments reflètent tous ce même pipeline structuré de récupération-puis-vérification que Dan Petrovic a exposé depuis la perspective interne du modèle.
Les URLs de grounding ne sont pas toutes visibles pour l'utilisateur. Nos données parsées révèlent trois couches distinctes :
Des chiffres issus de nos captures illustrent l'écart entre sources visibles et cachées :
| Type de requête | Visibles | Total (scripts) | Cachées |
|---|---|---|---|
| Voyage (Japon printemps) | 15 | 26 | 11 |
| Shopping (casques audio) | ~40 | 29+ | 4 |
| Culture (impressionnisme) | 20 | 20 | 0 |
Pour AIO en particulier, le pipeline Grounding → Pool → Affiché est la manifestation observable de cette architecture RAG. Chaque transition implique du filtrage et du reranking. Certaines citations finissent « rejetées » : le modèle a produit du texte qui ne pouvait pas être correctement attribué à ces sources.
Google Search Central confirme les critères d'éligibilité : « Pour apparaître comme lien de support dans les AI Overviews ou AI Mode, une page doit être indexée et éligible à l'affichage dans Google Search avec un snippet. Il n'y a pas d'exigences techniques supplémentaires. »
During the DOJ v. Google antitrust remedies trial (April-May 2025), an internal retrieval system called FastSearch was described under sworn testimony. Paragraph 44 of Judge Mehta's Memorandum Opinion states:
RankEmbed is an AI-based deep-learning system trained on click-and-query data and human quality rater scores. The Memorandum Opinion adds that it "has strong natural-language understanding" and "allows the model to more efficiently identify the best documents to retrieve, even if a query lacks certain terms."
Several hypotheses remain open:
Our working hypothesis: Google likely uses higher-quality retrieval data than FastSearch for AIO and AIM, sourced from its Mustang index and sent to Superroot after passing through RankEmbed BERT. These results would constitute the information retrieval (IR) phase where the engine selects an initial list of dozens to hundreds of candidate results, before the final reranking by Twiddlers. The grounding URLs visible in our parsed data appear to be already filtered from this initial list: the position field values in citation entries are non-contiguous, confirming that not all candidates are retained.
What the DOJ trial does confirm, regardless of the exact pipeline: the retrieval layer for AI grounding operates independently from traditional web ranking. Our data consistently shows that many grounding URLs don't appear in organic results, and vice versa.
Lors du procès antitrust DOJ v. Google (remedies trial, avril-mai 2025), un système de récupération interne appelé FastSearch a été décrit sous serment. Le paragraphe 44 du Memorandum Opinion du juge Mehta indique :
RankEmbed est un système de deep learning entraîné sur des données de clicks et de requêtes et sur des scores d'évaluateurs humains. Le Memorandum Opinion précise qu'il « possède une forte compréhension du langage naturel » et « permet au modèle d'identifier plus efficacement les documents pertinents, même lorsque la requête ne contient pas certains termes ».
Plusieurs hypothèses restent ouvertes :
Notre hypothèse de travail : Google utilise probablement des données de retrieval de meilleure qualité que FastSearch pour AIO et AIM, issues de son index Mustang et envoyées à Superroot après passage par RankEmbed BERT. Ces résultats constitueraient la phase d'information retrieval (IR) où le moteur sélectionne une liste initiale de quelques dizaines à quelques centaines de résultats candidats, avant le reranking final par les Twiddlers. Les URLs de grounding visibles dans nos données parsées semblent déjà filtrées depuis cette liste initiale : les valeurs du champ position dans les entrées de citation sont non contiguës, confirmant que tous les candidats ne sont pas retenus.
Ce que le procès DOJ confirme, indépendamment du pipeline exact : la couche de récupération pour le grounding IA opère de manière indépendante du ranking web traditionnel. Nos données montrent systématiquement que beaucoup d'URLs de grounding n'apparaissent pas dans les résultats organiques, et inversement.
Query fan-out is the process where Gemini decomposes a user query into multiple parallel sub-queries to broaden retrieval coverage. It is the core architectural differentiator of AI Mode.
Le query fan-out est le processus par lequel Gemini décompose une requête utilisateur en plusieurs sous-requêtes parallèles pour élargir la couverture de récupération. C'est le différenciateur architectural central d'AI Mode.
| AI Overviews (AIO) | AI Mode (AIM) | |
|---|---|---|
| Fan-out | Minimal or absent. No observable sub-query decomposition in the page source.Minimal ou absent. Pas de décomposition observable en sous-requêtes dans le code source. | 8-12 sub-queries per turn. Hundreds in Deep Search mode.8-12 sous-requêtes par tour. Centaines en mode Deep Search. |
| Observable evidenceTraces observables | Typically 5-15 citations per responseTypiquement 5-15 citations par réponse | 20-40+ citations per turn, accumulating progressively during streaming20-40+ citations par tour, s'accumulant progressivement pendant le streaming |
Liz Reid defined fan-out officially at Google I/O 2025: "Under the hood, Search recognizes when a question needs advanced reasoning. It calls on our custom version of Gemini to break the question into different subtopics, and it issues a multitude of queries simultaneously on your behalf." Robby Stein, VP of Product, added: "The custom version of Gemini 2.0 uses a multistep approach to make a plan, conduct searches to find information and adjust the plan based on what it finds."
Liz Reid a défini le fan-out officiellement lors de Google I/O 2025 : « Sous le capot, Search reconnaît quand une question nécessite un raisonnement avancé. Il fait appel à notre version personnalisée de Gemini pour décomposer la question en sous-thèmes, et lance une multitude de requêtes simultanément pour le compte de l'utilisateur. » Robby Stein, VP of Product, a ajouté : « La version personnalisée de Gemini 2.0 utilise une approche multi-étapes pour établir un plan, effectuer des recherches, et ajuster le plan en fonction de ce qu'elle trouve. »
AI responses are enriched with structured entity data from multiple Google knowledge systems. Our inspector reveals four distinct entity types:
Les réponses IA sont enrichies par des données d'entités structurées provenant de plusieurs systèmes de connaissance Google. Notre inspecteur révèle quatre types distincts :
| Type | SourceSource | RoleRôle |
|---|---|---|
| Knowledge Graph | Google KG | Entity disambiguation, factual anchoring (people, places, concepts)Désambiguïsation d'entités, ancrage factuel (personnes, lieux, concepts) |
| Shopping Graph | Google Shopping | Product entities with pricing, reviews, merchant dataEntités produits avec prix, avis, données marchands |
| Maps / Places | Google Maps | Local entities, geographic anchoringEntités locales, ancrage géographique |
| In-text entity linksLiens d'entités in-text | Google Search | Clickable terms in the AIO response text that link to internal Google searches. Recognized as entities but with no MID exposed in the source codeTermes cliquables dans le texte de la réponse AIO qui renvoient vers des recherches Google internes. Reconnus comme entités mais sans MID exposé dans le code source |
Entity enrichment varies between the two products. AIO uses primarily the Knowledge Graph. AIM draws from a broader set: Knowledge Graph, Shopping Graph (50+ billion product listings), and Maps/Places entities.
A practical observation from our captures: not all entities mentioned in the generated text receive a KG link. For a culture query on impressionism, Monet, Renoir, and Degas are all mentioned in the response but none receive a KG entity link. The model knows about them from grounding text, not from the Knowledge Graph.
L'enrichissement par entités varie entre les deux produits. AIO utilise principalement le Knowledge Graph. AIM puise dans un ensemble plus large : Knowledge Graph, Shopping Graph (50+ milliards de fiches produits), et entités Maps/Places.
Une observation concrète de nos captures : toutes les entités mentionnées dans le texte généré ne reçoivent pas un lien KG. Pour une requête culturelle sur l'impressionnisme, Monet, Renoir et Degas sont tous mentionnés dans la réponse mais aucun ne reçoit de lien KG. Le modèle les connaît via le texte de grounding, pas via le Knowledge Graph. La couverture entité est inégale et semble dépendre de la verticale de la requête.
Every Gemini version deployed in Search is described by Google as a "custom" variant, fine-tuned for search tasks. The pace of model upgrades has direct consequences on what we observe in parsed data.
Chaque version de Gemini déployée dans Search est décrite par Google comme une variante « custom », fine-tunée pour les tâches de recherche. Le rythme des mises à jour de modèle a des conséquences directes sur ce que nous observons dans les données parsées.
| DateDate | ProductProduit | ModelModèle | Key changeChangement clé |
|---|---|---|---|
| MayMai 2023 | SGE | PaLM 2 + MUM | LaunchLancement |
| LateFin 2023 | SGE | Gemini 1.0 custom | 40% latency reductionRéduction de 40 % de la latence |
| MayMai 2024 | AI Overviews | Gemini ~1.5 custom | Public deployment, all US usersDéploiement public, tous les utilisateurs US |
| MarchMars 2025 | AIO + AI Mode | Gemini 2.0 custom | AI Mode launchLancement AI Mode |
| MayMai 2025 | AIO + AI Mode | Gemini 2.5 custom | Google I/O 2025Google I/O 2025 |
| NovNov. 2025 | AIO + AI Mode | Gemini 3 Pro | Intelligent routingRoutage intelligent |
| DecDéc. 2025 | AI Mode (global) | Gemini 3 Flash | Default for AI Mode worldwideDéfaut pour AI Mode mondial |
| JanJanv. 2026 | AIO (global) | Gemini 3 | Default for AI Overviews worldwideDéfaut pour AI Overviews mondial |
Since November 2025, Google uses intelligent routing: multiple model variants serve different queries simultaneously. Simple factual queries receive Gemini 3 Flash (fast, lightweight). Complex multi-step queries are escalated to Gemini 3 Pro. Google announced: "Search will intelligently route your most challenging questions in AI Mode and AI Overviews to this frontier model, while continuing to use faster models for simpler tasks."
From a parsing perspective, there is no way to detect which model served a given response from the client side. No model name appears in network requests, headers, response data, or CSI timing metrics. The model identifier is entirely server-side.
Depuis novembre 2025, Google utilise le routage intelligent : plusieurs variantes de modèle servent différentes requêtes simultanément. Les requêtes factuelles simples reçoivent Gemini 3 Flash (rapide, léger). Les requêtes complexes multi-étapes sont escaladées vers Gemini 3 Pro. Google a annoncé : « Search routera intelligemment vos questions les plus complexes dans AI Mode et AI Overviews vers ce modèle frontier, tout en continuant à utiliser des modèles plus rapides pour les tâches simples. »
Du point de vue du parsing, il est impossible de détecter quel modèle a servi une réponse donnée côté client. Aucun nom de modèle n'apparaît dans les requêtes réseau, les headers, les données de réponse ou les métriques CSI. L'identifiant de modèle est entièrement côté serveur.
Google's official documentation (May 2025) describes an architecture with multiple overlapping safety layers for AI Overviews. AI Mode adds specific mechanisms tied to its conversational nature.
La documentation officielle de Google (mai 2025) décrit une architecture à couches de sécurité multiples pour les AI Overviews. AI Mode ajoute des mécanismes spécifiques liés à sa nature conversationnelle.
| # | LayerCouche | PhasePhase | Applies toS'applique à |
|---|---|---|---|
| 1 | Quality Raters + Red-teaming | TrainingEntraînement | AIO + AIM |
| 2 | YMYL filtersFiltres YMYL | Pre-generationPré-génération | AIO + AIM |
| 3 | SpamBrain + SafeSearch | RetrievalRécupération | AIO + AIM |
| 4 | Grounding verificationVérification de grounding | Post-generationPost-génération | AIO + AIM |
| 5 | Agentic RL (DeepMind) | ContinuousContinu | AIM primarilyAIM principalement |
| 6 | Vulnerable situation detectionDétection de situations vulnérables | RuntimeRuntime | AIM onlyAIM uniquement |
For AI Mode specifically, Google uses agentic reinforcement learning (in collaboration with DeepMind) that rewards the model for generating statements that are more likely to be accurate and backed up by retrieved sources rather than hallucinated.
The Search Quality Rater Guidelines were updated in September 2025 to include evaluation examples for AI Overviews for the first time. Raters now assess the accuracy of the information, the attribution of sources cited, and the overall usefulness of the summary.
Pour AI Mode en particulier, Google utilise l'apprentissage par renforcement agentique (en collaboration avec DeepMind) qui récompense le modèle pour générer des affirmations plus susceptibles d'être exactes et étayées par les sources récupérées, plutôt qu'hallucinées.
Les Search Quality Rater Guidelines ont été mises à jour en septembre 2025 pour inclure pour la première fois des exemples d'évaluation des AI Overviews. Les évaluateurs jugent désormais l'exactitude de l'information, l'attribution des sources citées, et l'utilité globale du résumé.
Patent US12013887B2 (granted June 2024) describes an information gain score: a value between 0 and 1 measuring how much new information a document brings relative to what already exists. The score is session-aware: it evaluates each document's informational potential based on what the user has already consulted during their browsing session.
If implemented in AI search systems, the consequences are direct: the sources cited in AI Overviews and AI Mode could vary and diversify as a user researches a topic across successive queries. A page cited in the first AI Overview might give way to a different source in a follow-up query, if the latter offers higher information gain relative to content already consumed. This session-based logic is particularly aligned with AI Mode's multi-turn conversational architecture.
Whether Information Gain is active in production remains unconfirmed. But the patent's timing (mid-2024, as AI-generated content proliferates) and its focus on detecting semantic redundancy across differently worded but substantively identical content suggest it could serve as a filtering mechanism against the homogenization of search results.
Le brevet US12013887B2 (accordé juin 2024) décrit un score de gain d'information : une valeur entre 0 et 1 mesurant la quantité d'information nouvelle qu'un document apporte par rapport à ce qui existe déjà. Le score est contextuel à la session : il évalue le potentiel informatif de chaque document en fonction de ce que l'utilisateur a déjà consulté pendant sa navigation.
S'il est implémenté dans les systèmes de recherche IA, les conséquences sont directes : les sources citées dans les AI Overviews et AI Mode pourraient varier et se diversifier au fil des requêtes successives d'un utilisateur sur un sujet. Une page citée dans le premier AI Overview pourrait céder la place à une source différente dans une requête suivante, si cette dernière offre un gain d'information supérieur par rapport au contenu déjà consommé. Cette logique de session est particulièrement alignée avec l'architecture conversationnelle multi-tours d'AI Mode.
L'activation effective de l'Information Gain en production n'est pas confirmée. Mais le timing du brevet (mi-2024, en pleine prolifération des contenus générés par IA) et son focus sur la détection de la redondance sémantique entre des contenus formulés différemment mais substantiellement identiques suggèrent qu'il pourrait servir de mécanisme de filtrage contre l'homogénéisation des résultats de recherche.