Reverse Engineering - February 2026 Reverse Engineering - Février 2026

AI Overview / AI Mode - Deepdive

Key information, interactive analyses, dedicated plugin, technical discoveries and explanations of Google's AI Overviews (AIO) and AI Mode (AIM): hidden grounding URLs, citation pipelines, entity graphs, and more. Informations clés, analyses interactives, présentation du plugin dédié, découvertes et explications techniques des AI Overview (AIO) et AI Mode (AIM) de Google : URLs de grounding cachées, pipelines de citations, graphes d'entités, et plus.

AI Overviews
&
AI Mode
Powered by RESONEO
1

What you need to know firstCe que vous devez d'abord savoir

1 Grounding URLs: what gets retrieved vs. what gets shown

Generative AI search systems (Google AI Overviews, AI Mode, ChatGPT Search) rely on a grounding mechanism: before generating a response, the system retrieves a set of candidate URLs as a factual basis. Some of these URLs will actually inform the generation, others will be completely ignored by the model. And among those retained, only a fraction will appear as clickable citations shown to the user. In our work reverse-engineering ChatGPT, we identified these as "hidden links": URLs used internally for grounding but never surfaced to the user.

This distinction matters. Several AI visibility studies have drawn conclusions about the most frequently cited domains without separating initial candidate URLs (grounding) from those actually shown to the user. Their findings are therefore skewed, sometimes significantly. And even among URLs that do get selected for display, their placement (in-text near the top, lateral sidebar, collapsed sidebar, image carousel, small paperclip icon at the end) determines actual visibility far more than mere presence.

1 Les URLs de grounding : ce qui est récupéré vs. ce qui est affiché

Les systèmes d'IA générative utilisés dans la recherche (Google AI Overviews, AI Mode, ChatGPT Search) s'appuient sur un mécanisme de grounding : avant de générer une réponse, le système récupère un ensemble d'URLs candidates qui serviront de base factuelle. Certaines seront effectivement utilisées dans la génération, d'autres seront complètement ignorées par le modèle. Et parmi celles retenues, seule une fraction sera affichée à l'utilisateur sous forme de citations cliquables. Dans notre travail de reverse-engineering de ChatGPT, nous les avons identifiées sous le terme "hidden links" : des URLs utilisées en interne pour le grounding mais jamais montrées à l'utilisateur.

Cette distinction est fondamentale. De nombreuses études de visibilité dans les IA ont tiré des conclusions sur les domaines les plus cités sans séparer les URLs candidates initiales (grounding) de celles réellement montrées à l'utilisateur. Leurs résultats sont donc biaisés, parfois de façon significative. Et même parmi les URLs effectivement affichées, leur emplacement (in-text en début de réponse, sidebar latérale, sidebar repliée, carousel d'images, icône trombone en fin de réponse) détermine bien plus la visibilité réelle que la simple présence.

2 FastSearch: the retrieval layer behind AI answers

FastSearch is derived from RankEmbed-BERT, Google's embedding-based retrieval system. It represents the final phase of information retrieval, producing abbreviated ranked results that a model can use for grounding. The trade-off: FastSearch delivers results faster than RankEmbed-BERT, but with lower quality. Google exposes it to third-party GenAI tools via Vertex AI in the Cloud, though it notably denied ChatGPT access to this system.

An open question remains: does AI Overviews rely on FastSearch, or does it tap directly into the initial result sets from RankEmbed-BERT before the reranking stage (via Twiddlers notably)? The internal pipeline would likely deliver higher-quality grounding than the FastSearch shortcut. AI Mode, on the other hand, has more tools at its disposal and can perform multiple fan-outs, functioning more like an orchestrator with agentic capabilities, though AI Overviews is probably also evolving in that direction.

"FastSearch is based on RankEmbed signals a set of search ranking signals and generates abbreviated, ranked web results that a model can use to produce a grounded response"
DOJ v. Google, Memorandum Opinion

2 FastSearch : la couche de retrieval derrière les réponses IA

FastSearch est dérivé de RankEmbed-BERT, le système de retrieval par embeddings de Google. Il représente la phase finale d'information retrieval, produisant des résultats web abrégés et classés qu'un modèle peut utiliser pour le grounding. Le compromis : FastSearch livre des résultats plus rapidement que RankEmbed-BERT, mais avec une qualité moindre. Google l'expose aux outils GenAI tiers via Vertex AI dans le Cloud, tout en ayant refusé cet accès à ChatGPT.

Une question reste ouverte : AI Overviews s'appuie-t-il sur FastSearch, ou exploite-t-il directement les premiers jeux de résultats de RankEmbed-BERT avant l'étape de reranking (via les Twiddlers notamment) ? Le pipeline interne offrirait vraisemblablement un grounding de meilleure qualité que le raccourci FastSearch. AI Mode, de son côté, dispose de davantage d'outils et peut effectuer du multiple fan-out, fonctionnant davantage comme un orchestrateur avec des capacités agentiques, bien qu'AI Overviews évolue sans doute aussi progressivement dans cette direction.

"FastSearch is based on RankEmbed signals a set of search ranking signals and generates abbreviated, ranked web results that a model can use to produce a grounded response"
DOJ v. Google, Memorandum Opinion

3 The Knowledge Graph as a disambiguation and fact-checking layer

AI Overviews and AI Mode rely extensively on Google's Knowledge Graph to disambiguate retrieved documents and perform the fact-checking needed to limit hallucinations. Beyond the traditional Knowledge Graph, two additional graphs are mobilized: the Shopping Graph (over 50 billion referenced products) and the Places Graph (Google Maps), which anchor responses in structured data about products and locations.

AI Overviews use a customized Gemini model with the Knowledge Graph AI Mode taps into real-time information and Knowledge Graph

Source: "AI Overviews and AI Mode in Search", Google, May 2025. See also: KG Mining Infographic

3 Le Knowledge Graph comme couche de désambiguïsation et de fact-checking

AI Overviews et AI Mode s'appuient largement sur le Knowledge Graph de Google pour désambiguïser les documents récupérés et effectuer le fact-checking nécessaire pour limiter les hallucinations. Au-delà du Knowledge Graph traditionnel, deux autres graphes sont mobilisés : le Shopping Graph (plus de 50 milliards de produits référencés) et le Graph des Places (Google Maps), qui permettent d'ancrer les réponses dans des données structurées sur les produits et les lieux.

AI Overviews utilise un modele Gemini personnalise avec le Knowledge Graph AI Mode exploite les informations en temps reel et le Knowledge Graph

Source : "AI Overviews and AI Mode in Search", Google, mai 2025. Voir aussi : KG Mining Infographic

2

Live demoDemo live

We've dissected the system to extract, among other things, the hidden grounding URLs from AI Overviews and the evidence of AI Mode's deep integration with the Knowledge Graph. Open DevTools (F12) on any Google search page, right-click on <html> in the Elements tab, select Copy → Copy outerHTML, and paste the result below. Nous avons décortiqué le système pour pouvoir extraire, entre autres, les URLs de grounding cachées d'AI Overview et les preuves de l'ancrage d'AI Mode dans le Knowledge Graph. Ouvrez les DevTools (F12) sur une page de recherche Google, faites un clic droit sur <html> dans l'onglet Elements, sélectionnez Copy → Copy outerHTML, et collez le résultat ci-dessous.

AI Overview
i
AI Mode
i
3

Try our new Chrome plugin!Essayez notre nouveau plugin Chrome !

The interactive demo above gives a snapshot of what AIO and AI Mode return for a single query. The Chrome extension goes further: it captures data silently in the background on every Google search, stores everything locally, and opens up analysis features that a one-shot demo cannot offer. Aggregated stats, cross-query comparisons, entity tracking across sessions.

La démo interactive ci-dessus donne un aperçu de ce qu'AIO et AI Mode renvoient pour une requête donnée. Le plugin Chrome va plus loin : il capture les données en tâche de fond sur chaque recherche Google, stocke tout en local, et donne accès à des fonctionnalités d'analyse impossibles dans une démo ponctuelle. Stats agrégées, comparaisons inter-requêtes, suivi des entités entre sessions.

AIO Pipeline View

AIO pipeline view

Vue pipeline AIO

Full Grounding → Pool (candidates with initial ranking) → Displayed (reranked) pipeline. Detailed URL table with position and organic match. Kept/dropped/injected badges show how each URL flows through stages.

Pipeline complet Grounding → Pool (candidats avec classement initial) → Affichées (re-classées). Tableau détaillé des URLs avec position et correspondance organique. Badges conservé/supprimé/injecté montrant le parcours de chaque URL à travers les étapes.

AIO Entities & Fragments

AIO entities and fragments

Entités et fragments AIO

Entities detected at the AIO level do not carry Knowledge Graph MIDs. They link to other search results instead. The extension captures these entity references alongside text fragments extracted from source pages.

Les entités détectées au niveau d'AIO ne portent pas de MID du Knowledge Graph. Elles renvoient vers d'autres résultats de recherche. Le plugin capture ces références d'entités ainsi que les fragments de texte extraits des pages sources.

AIM & Knowledge Graph

AIM and Knowledge Graph

AIM et Knowledge Graph

AI Mode, unlike AIO, exposes actual KG MIDs (/m/xxx or /g/xxx) through the kgmid parameter. Capture of Knowledge Graph entities that AI Mode uses to anchor its responses for disambiguation and fact-checking, along with text fragments.

AI Mode, contrairement à AIO, expose les vrais MID du KG (/m/xxx ou /g/xxx) via le paramètre kgmid. Capture des entités du Knowledge Graph sur lesquelles AI Mode ancre ses réponses pour désambiguisation et vérification factuelle, ainsi que les fragments de texte.

In-text links, Text Fragments & Sections

AIM: in-text links, fragments and sections

AIM : liens in-text, fragments et sections

Extraction of in-text links embedded directly in the AI response and #:~:text= fragments. Sections correspond to the thematic groupings the AI creates when structuring its answer, each section gathering the sources it drew from. Shows exactly which passages the AI relied on, and how it organized them.

Extraction des liens in-text intégrés directement dans la réponse IA et des fragments #:~:text=. Les sections correspondent aux regroupements thématiques que l'IA effectue en structurant sa réponse, chaque section rassemblant les sources mobilisées. Montre précisément quels passages l'IA a utilisés, et comment elle les a organisés.

Product & Place Entities

AIM: product and place entities

AIM : entités produits et lieux

Shopping Graph products and Google Maps places with their MIDs. Reveals how Google integrates its entity databases directly into AI Mode responses.

Produits du Shopping Graph et lieux Google Maps avec leurs MID. Montre comment Google intègre ses bases d'entités directement dans les réponses AI Mode.

AIO vs AIM Cross-comparison

AIO vs AIM cross-comparison

Comparaison croisée AIO vs AIM

Same query, two surfaces: AIO and AI Mode. The Venn diagram exposes how little the cited URLs overlap between the two. Different retrieval strategies, different source sets for the same intent. The tool also compares AI response URLs against organic SERP results to measure how much the AI answer diverges from traditional rankings.

Même requête, deux surfaces : AIO et AI Mode. Le diagramme de Venn montre à quel point les URLs citées se recoupent peu entre les deux. Stratégies de récupération différentes, jeux de sources distincts pour une même intention. L'outil compare aussi les URLs des réponses IA avec les résultats organiques de la SERP pour mesurer l'écart avec le classement traditionnel.

Global aggregated data

Aggregated data across queries

Données agrégées multi-requêtes

The extension stores all captured data and builds aggregated charts across every AI response collected. Top domains in cited or grounding URLs, most referenced pages. On AI Mode captures, publication dates are sometimes available, which makes it possible to analyze the overall freshness of URLs used by the AI.

Le plugin stocke toutes les données capturées et construit des graphiques agrégés sur l'ensemble des réponses IA collectées. Domaines les plus visibles dans les URLs citées ou de grounding, pages les plus référencées. Sur les captures AI Mode, les dates de publication sont parfois disponibles, ce qui permet d'analyser la fraîcheur globale des URLs utilisées par l'IA.

Text fragments tag cloud

What content the AI values

Ce que l'IA retient comme contenu

The tool generates a tag cloud from all text fragments collected across analyzed searches. A way to identify the recurring terms the AI latches onto when sourcing its responses. You can also download the full list of URLs and their associated text fragments across all analyzed queries, for deeper analysis in your own tools.

L'outil génère un tag cloud à partir de tous les fragments de texte récoltés sur l'ensemble des recherches analysées. Un moyen d'identifier les termes récurrents sur lesquels l'IA se rattache pour sourcer ses réponses. Vous pouvez aussi télécharger l'intégralité des URLs et de leurs fragments de texte associés pour toutes les requêtes analysées, afin de pousser l'analyse plus loin dans vos propres outils.

Download AIO/AIM Inspector

Télécharger AIO/AIM Inspector

Download .zipTélécharger .zip

Installation (Developer Mode)

Installation (Mode développeur)

  1. Download and unzip aio-aim-inspector.zip
  2. Open Chrome and go to chrome://extensions/
  3. Enable Developer mode (toggle in top-right corner)
  4. Click Load unpacked and select the unzipped folder
  5. Navigate to any Google search page, the extension captures data automatically
  1. Téléchargez et décompressez aio-aim-inspector.zip
  2. Ouvrez Chrome et allez à chrome://extensions/
  3. Activez le Mode développeur (interrupteur en haut à droite)
  4. Cliquez sur Charger l'extension non empaquetée et sélectionnez le dossier décompressé
  5. Naviguez vers une page de recherche Google. L'extension capture les données automatiquement
⚠ Heads up
⚠ Attention

Google frequently changes its source code. The extension may become outdated or return incomplete data at any time. We will do our best to keep it up to date. When an update is available, simply re-download the ZIP, replace the old folder, and click Reload on chrome://extensions/.

Google modifie régulièrement son code source. L'extension peut devenir obsolète ou remonter des informations incomplètes à tout moment. Nous ferons notre possible pour la maintenir à jour. En cas de mise à jour, il suffira de re-télécharger le ZIP, remplacer l'ancien dossier, et cliquer sur Recharger dans chrome://extensions/.

4

What we foundCe que nous avons découvert

Observations from reverse-engineering AI Overviews and AI Mode with AIO/AIM Inspector. Not a finished study, but a set of patterns worth sharing. Observations issues du reverse-engineering d'AI Overview et AI Mode avec notre plugin. Pas une étude clôturée, mais un ensemble de schémas qui méritent d'être partagés.

AI Overviews: four stages, three filters AI Overviews : quatre étapes, trois filtres

The AIO citation pipeline is not a simple retrieval. It works in four successive stages, each narrowing the URL set and reordering it:

Le pipeline de citations AIO n'est pas une simple requête. Il fonctionne en quatre étapes successives, chacune réduisant l'ensemble des URLs et les réordonnant :

IR
Information Retrieval candidatesCandidats de la recherche d'information
Grounding URLsURLs de grounding
Filtered subset fed to GeminiSous-ensemble filtré fourni à Gemini
Pool
Ranked selection + injectionsSélection classée + injections
DisplayedAffichées
Final reranking by Gemini + rejectionsReranking final par Gemini + rejections

Caution: the exact pipeline is unknownAttention : le pipeline exact est inconnu

We don't know the exact pipeline for AIO/AIM. FastSearch was described in the context of Gemini's grounding capabilities broadly, but it is not confirmed that AIO and AIM use FastSearch specifically. Google may have a dedicated, more sophisticated retrieval system for Search products. AIO sometimes appears to use standard organic results directly as grounding sources. The retrieval system may differ between AIO and AIM, or vary by query type. Google may use a hybrid approach: organic results for some queries, a lighter retrieval for others.

Nous ne connaissons pas le pipeline exact d'AIO/AIM. FastSearch a été décrit dans le contexte des capacités de grounding de Gemini au sens large, mais il n'est pas confirmé qu'AIO et AIM utilisent FastSearch spécifiquement. Google pourrait disposer d'un système de récupération dédié et plus sophistiqué pour ses produits Search. AIO semble parfois utiliser directement les résultats organiques standard comme sources de grounding. Le système de récupération pourrait différer entre AIO et AIM, ou varier selon le type de requête. Google pourrait également utiliser une approche hybride : résultats organiques pour certaines requêtes, une récupération plus légère pour d'autres.

The first stage is Information Retrieval (IR): the search engine selects an initial list of a few dozen to a few hundred candidate results. Our hypothesis is that Google likely uses higher-quality data than FastSearch for AIO/AIM, sourced from Mustang and sent directly to Superroot after passing through RankEmbed BERT. The grounding URLs visible in the parsed data are already a filtered subset of this initial IR list: the position field values in the data are non-contiguous, confirming that not all IR candidates are retained. From that filtered set, a first selection produces what we call the Pool, which includes the grounding URLs that survived ranking but also, sometimes, additional URLs that were not in the original grounding set. The final step is a reranking operated by Gemini itself, which decides what is actually displayed to the user and may reject some Pool URLs along the way.

La première étape est la recherche d'information (IR) : le moteur de recherche sélectionne une liste initiale de quelques dizaines à quelques centaines de résultats candidats. Notre hypothèse est que Google utilise probablement des données de meilleure qualité que FastSearch pour AIO/AIM, provenant de Mustang et envoyées directement à Superroot après passage par RankEmbed BERT. Les URLs de grounding visibles dans les données analysées sont déjà un sous-ensemble filtré de cette liste IR initiale : les valeurs du champ position dans les données sont non contiguës, confirmant que tous les candidats IR ne sont pas retenus. À partir de cet ensemble filtré, une première sélection produit ce qu'on appelle le Pool, qui inclut les URLs de grounding ayant survécu au classement mais aussi, parfois, des URLs complémentaires absentes du jeu de grounding initial. La dernière étape est un reranking opéré par Gemini lui-même, qui décide de ce qui est réellement affiché à l'utilisateur et peut rejeter certaines URLs du Pool au passage.

Observations from the field Observations de terrain

Grounding set size varies wildly. Depending on the query, the number of grounding URLs ranges from fewer than 5 to over 50. There is no fixed quota; the system scales the retrieval depth to the query's complexity and the available corpus.

La taille du jeu de grounding varie énormément. Selon la requête, le nombre d'URLs de grounding va de moins de 5 à plus d'une cinquantaine. Il n'y a pas de quota fixe ; le système adapte la profondeur de récupération à la complexité de la requête et au corpus disponible.

Injected URLs are almost exclusively videos. The additional URLs that appear in the Pool without being part of the original grounding set are, in the vast majority of cases, YouTube videos. We also spotted a few from Meta or Instagram, but YouTube dominates this injection mechanism.

Les URLs injectées sont quasi exclusivement des vidéos. Les URLs supplémentaires qui apparaissent dans le Pool sans provenir du jeu de grounding initial sont, dans la grande majorité des cas, des vidéos YouTube. Nous avons aussi repéré quelques résultats Meta ou Instagram, mais YouTube domine ce mécanisme d'injection.

YouTube video injections in the Pool
URLs injected into the Pool that were not present in the initial grounding set. YouTube accounts for the overwhelming majority of these additions. URLs injectées dans le Pool qui n'étaient pas présentes dans le jeu de grounding initial. YouTube représente l'écrasante majorité de ces ajouts.

Some Pool URLs get rejected before display. Not every URL that makes it into the Pool ends up visible to the user. Gemini's final reranking can drop URLs that survived the first cut. We observe this regularly, with no obvious pattern yet explaining which ones get discarded.

Certaines URLs du Pool sont rejetées avant affichage. Toutes les URLs qui atteignent le Pool ne finissent pas visibles par l'utilisateur. Le reranking final de Gemini peut écarter des URLs ayant passé la première sélection. Nous l'observons régulièrement, sans qu'un schéma clair n'explique encore lesquelles sont supprimées.

Grounding URLs present even when no AIO block is shown. This is a key finding. Even when the user sees no AI Overview block on the SERP, the grounding URLs are often already embedded in the page's source code. They are pre-loaded, ready to go. This is likely a latency optimization, but it also suggests that Tangram, which ingests Glue and NavBoost signals and decides which features to trigger on each SERP, can choose to show or hide the AIO block on a per-user basis for the same query, depending on personalization parameters.

URLs de grounding présentes même sans bloc AIO affiché. C'est une observation clé. Même lorsque l'utilisateur ne voit aucun bloc AI Overview sur la SERP, les URLs de grounding sont souvent déjà intégrées dans le code source de la page. Elles sont pré-chargées, prêtes à servir. C'est probablement une optimisation de latence, mais cela suggère aussi que Tangram, qui ingère les signaux de Glue et NavBoost et décide des features à déclencher sur chaque SERP, peut choisir d'afficher ou de masquer le bloc AIO par utilisateur pour une même requête, selon les paramètres de personnalisation.

Grounding URLs present without AIO block
Grounding URLs found in the page source while no AI Overview block was displayed to the user. The data is staged in advance. URLs de grounding trouvées dans le code source alors qu'aucun bloc AI Overview n'était affiché. Les données sont pré-positionnées en amont.

No grounding, but an AIO block anyway. In rare cases, we see the inverse: no grounding URLs at all, yet an AIO block is displayed. In these situations, the organic SERP results appear to serve as the grounding source, but in a different order than the standard organic ranking. Google seems to do this when it has high confidence in the quality of its organic results for the query.

Pas de grounding, mais un bloc AIO quand même. Dans de rares cas, nous observons l'inverse : aucune URL de grounding, et pourtant un bloc AIO affiché. Dans ces situations, ce sont les résultats organiques de la SERP qui semblent servir de source de grounding, mais dans un ordre différent du classement organique standard. Google semble procéder ainsi lorsqu'il a une forte confiance dans la qualité de ses résultats organiques pour la requête.

AIO without grounding URLs
An AIO block displayed with no grounding URLs in the source. The organic results serve as the implicit source set, reordered. Un bloc AIO affiché sans aucune URL de grounding dans le source. Les résultats organiques servent de jeu de sources implicite, réordonné.

In-text entities without MIDs. Some entities highlighted in the AIO text do not carry a Knowledge Graph MID. Instead, they link to internal Google searches on terms that are recognized as entities but have no MID attached. Our plugin captures these entity links from the AIO text content alongside the MID-bearing ones, which gives a fuller picture of how the model parses the topic.

Entités in-text sans MID. Certaines entités mises en évidence dans le texte de l'AIO ne portent pas de MID du Knowledge Graph. Elles renvoient plutôt vers des recherches internes Google sur des termes reconnus comme entités mais sans MID affiché. Notre plugin capture ces liens d'entités dans le contenu texte des AIO, aux côtés de celles porteuses d'un MID, ce qui donne une image plus complète de la façon dont le modèle découpe le sujet.

AI Mode: the Knowledge Graph at the center AI Mode : le Knowledge Graph au centre

Where standard SERPs only surface a Knowledge Graph MID when a Knowledge Panel is triggered (and only one at a time), AI Mode exposes the entity graph much more broadly. When the query revolves around one or more named entities, we can identify precisely which MID(s) the model anchors its response to. This mechanism serves several functions:

Là où les SERP classiques n'exposent un MID du Knowledge Graph que lorsqu'un Knowledge Panel est déclenché (et un seul à la fois), AI Mode expose le graphe d'entités de manière bien plus large. Lorsque la requête tourne autour d'une ou plusieurs entités nommées, on peut identifier précisément quel(s) MID le modèle utilise pour ancrer sa réponse. Ce mécanisme remplit plusieurs fonctions :

  • Disambiguation: pinning the answer to a specific entity so there is no confusion about which topic is being addressed
  • Désambiguisation : rattacher la réponse à une entité précise pour lever toute confusion sur le sujet traité
  • RAG-style fact retrieval: pulling real-world facts from the graph to feed the model with structured data
  • Récupération factuelle de type RAG : extraire des faits du monde réel depuis le graphe pour alimenter le modèle en données structurées
  • Fact-checking guardrail: using the graph as a reference to reduce hallucinations in the AI output
  • Garde-fou de fact-checking : utiliser le graphe comme référence pour réduire les hallucinations dans la sortie IA
  • Vertical integration: connecting Shopping Graph products, Maps places, images, news, video and ads into a unified response surface
  • Intégration verticale : connecter produits du Shopping Graph, lieux Maps, images, actualités, vidéo et publicités dans une surface de réponse unifiée

What we see in the citations Ce qu'on observe dans les citations

We were not able to recover the grounding URLs for AI Mode. That part of the process runs entirely server-side, unlike AIO where grounding data is embedded in the page source. What we do capture are the citations surfaced to the user, and these carry useful signals:

Nous n'avons pas réussi à récupérer les URLs de grounding pour AI Mode. Cette partie du processus se déroule entièrement côté serveur, contrairement à AIO où les données de grounding sont embarquées dans le code source de la page. Ce qu'on capture, ce sont les citations remontées à l'utilisateur, et elles portent des signaux utiles :

  • In-text citations appear directly in the body of the AI response. These are the most visible and carry a strong weight in terms of user attention.
  • Citations in-text apparaissent directement dans le corps de la réponse IA. Ce sont les plus visibles et les plus impactantes en termes d'attention utilisateur.
  • Sidebar sources are listed in the right panel, with a ranking order and sometimes publication dates.
  • Sources de la sidebar sont listées dans le panneau de droite, avec un ordre de classement et parfois des dates de publication.
  • Text fragments (#:~:text=) are the specific paragraphs Google links the user to when they click a citation. They likely indicate the exact passage the AI considered most relevant to answer the query. Studying them across many captures could help identify what types of content are most useful to the model.
  • Fragments de texte (#:~:text=) sont les paragraphes précis vers lesquels Google renvoie l'utilisateur lorsqu'il clique sur une citation. Ils indiquent vraisemblablement le passage exact que l'IA a considéré comme le plus pertinent pour répondre à la requête. Leur étude à travers de nombreuses captures pourrait aider à identifier les types de contenus les plus utiles au modèle.

Two genuinely separate systems Deux systèmes réellement distincts

A recurring observation: AIO and AI Mode are not two views of the same pipeline. For a given query, the overlap in cited URLs between the two is remarkably low. The retrieval strategies differ, the source sets differ, the ranking criteria differ. The same applies when comparing AI Overview and AI Mode citations against organic SERP results: they share very few URLs. These are fundamentally different systems that happen to coexist on the same search platform.

Une observation récurrente : AIO et AI Mode ne sont pas deux vues du même pipeline. Pour une requête donnée, le recoupement d'URLs citées entre les deux est remarquablement faible. Les stratégies de récupération diffèrent, les jeux de sources diffèrent, les critères de classement diffèrent. Même constat en comparant les citations AI Overview et AI Mode avec les résultats organiques de la SERP : très peu d'URLs en commun. Ce sont des systèmes fondamentalement différents qui cohabitent sur la même plateforme de recherche.

Work in progressTravail en cours

There is much more to dig into. Edge cases to document, patterns to confirm across larger datasets, behaviors that change between query types and verticals. Rather than wait for a polished conclusion, we chose to release the tool now and share what we have. The SEO community already knows how to fish; we would rather hand out the rod than serve up pre-packaged catches. Install the extension, run your own queries, challenge what we found. The interesting part is everything that has not been mapped yet. Il reste beaucoup de choses à creuser. Des cas limites à documenter, des patterns à confirmer sur des jeux de données plus larges, des comportements qui changent selon les types de requêtes et les verticales. Plutôt que d'attendre une conclusion polie, nous avons choisi de publier l'outil maintenant et de partager ce que nous avons. La communauté SEO sait déjà pêcher ; on préfère fournir la canne à pêche à ceux qui savent s'en servir plutôt que de donner le poisson directement à tout le monde. Installez l'extension, lancez vos propres requêtes, challengez nos observations. Le plus intéressant, c'est tout ce qui n'a pas encore été cartographié.

Want to parse all this shit by yourself? Trust us, it's an absolute nightmare to parse ^^ Give this .md to your favorite AI (but you'll owe us 1M tokens 😬) Envie de parser toute cette merde vous-même ? (croyez-nous, c'est une vraie galère à parser) Donnez ce .md à votre IA préférée (mais vous nous devrez 1M tokens 😬)

5

Technical deep-divePlongée technique

How Google's AI search features work under the hood, based on court testimony, patent filings, reverse engineering and parsed data. Fonctionnement technique des réponses IA de Google Search, à partir de témoignages judiciaires, d'analyses de brevets, de rétro-ingénierie et de données parsées.

5.1 – From SGE to AI Overviews then AI Mode

5.1 – De SGE aux AI Overviews puis AI Mode

The integration of generative AI into Google Search follows a precise three-phase trajectory, each phase expanding the role of the LLM while narrowing the user's ability to opt out.

May 2023
Search Generative Experience (SGE)
Launched at Google I/O as an opt-in Labs experiment. Powered by PaLM 2. Included a conversational follow-up mode. Elizabeth Reid, then VP & GM of Search, described a system built on "systems we've been refining for decades" with "additional guardrails, like limiting the types of queries where these features appear."
May 2024
AI Overviews (AIO)
SGE rebranded and deployed by default for all US users at Google I/O 2024. Architectural shift: the conversational mode was removed. Users receive a one-shot summary at the top of the SERP. The underlying model switched to a custom Gemini variant. After the "glue on pizza" launch errors, Google implemented "more than a dozen technical changes" to refine triggering logic. Over one billion users reached before end of 2024.
March 2025
AI Mode (AIM)
Launched as a Labs experiment for Google One AI Premium subscribers, then rolled out to all US users at Google I/O in May 2025. Conversational, multi-turn, with query fan-out. Liz Reid described it as a "total reimagining of Search." Extended globally with Gemini 3 Flash in December 2025.

L'intégration de l'IA générative dans Google Search suit une trajectoire en trois phases, chacune élargissant le rôle du LLM tout en réduisant la possibilité pour l'utilisateur de ne pas y être exposé.

Mai 2023
Search Generative Experience (SGE)
Lancé lors de Google I/O comme expérience Labs opt-in. Alimenté par PaLM 2. Incluait un mode conversationnel avec suivi de questions. Elizabeth Reid, alors VP & GM de Search, décrivait un système reposant sur « des systèmes affinés pendant des décennies » avec « des guardrails additionnels, comme la limitation des types de requêtes où ces fonctionnalités apparaissent ».
Mai 2024
AI Overviews (AIO)
SGE rebaptisé et déployé par défaut pour tous les utilisateurs US lors de Google I/O 2024. Rupture architecturale : le mode conversationnel est supprimé. L'utilisateur reçoit un résumé one-shot au sommet de la SERP. Après les erreurs de lancement (les fameux « glue on pizza »), Google a implémenté « more than a dozen technical changes » pour affiner le déclenchement. Plus d'un milliard d'utilisateurs atteints avant fin 2024.
Mars 2025
AI Mode (AIM)
Lancé comme expérience Labs pour les abonnés Google One AI Premium, puis déployé pour tous les utilisateurs US lors de Google I/O en mai 2025. Conversationnel, multi-tours, avec query fan-out. Liz Reid l'a qualifié de « total reimagining of Search ». Étendu mondialement avec Gemini 3 Flash en décembre 2025.

5.2 – Two products, two architectures

5.2 – Deux produits, deux architectures

AIO and AIM share the same Gemini model family and the same grounding logic, but they differ on nearly every other technical dimension. The table below reflects what we observe from parsed SERP data and confirmed public sources.

AIO et AIM partagent la même famille de modèles Gemini et la même logique de grounding, mais ils diffèrent sur presque toutes les autres dimensions techniques. Le tableau ci-dessous reflète ce que nous observons à partir des données parsées de la SERP et des sources publiques confirmées.

DimensionDimension AI Overviews (AIO) AI Mode (AIM)
UX positionPosition UX Summary overlay at the top of the standard SERPRésumé overlay en haut de la SERP standard Dedicated conversational interface (tab, udm=50)Interface conversationnelle dédiée (onglet, udm=50)
TriggerDéclenchement Automatic, when Google deems it usefulAutomatique, quand Google le juge utile User-initiatedInitié par l'utilisateur
ConversationalConversationnel No (one-shot)Non (one-shot) Yes, multi-turn via mstk session tokensOui, multi-tours via tokens de session mstk
Query processingTraitement de la requête Standard retrieval + LLM synthesisRécupération standard + synthèse LLM Query fan-out: 8-12 parallel sub-queries (hundreds in Deep Search)Query fan-out : 8-12 sous-requêtes parallèles (centaines en Deep Search)
Observable grounding pipelinePipeline de grounding observable 3-stage: Grounding → Pool → Displayed3 étapes : Grounding → Pool → Affiché Simplified: Citations + Sidebar sourcesSimplifié : Citations + Sources sidebar
Entity typesTypes d'entités Entity linksLiens d'entités Knowledge Graph + Shopping Graph + Maps/PlacesKnowledge Graph + Shopping Graph + Maps/Places
Response HTML sizeTaille HTML de la réponse ~50-150 KB (concise)~50-150 Ko (concis) ~750 KB per turn (comparable to a full Wikipedia article)~750 Ko par tour (comparable à un article Wikipedia complet)

5.3 – The RAG pipeline and grounding principle

5.3 – Pipeline RAG et principe de grounding

QueryRequête
User search inputRequête utilisateur
RetrievalRécupération
Internal retrieval
+ MAGI grounding
Retrieval interne
+ grounding MAGI
Augmentation
Context injection
KG entities
Injection de contexte
Entités KG
GenerationGénération
Gemini model
AI response
Modèle Gemini
Réponse IA

Both AIO and AIM follow a RAG pattern: the model searches first, then generates a response anchored in the retrieved results. Google Cloud defines grounding as "the ability to connect model output to verifiable sources of information," which "reduces the chances of inventing content." The Firebase documentation states explicitly: "Grounding with Google Search solves this problem by allowing Gemini to perform a real-time search before it generates an answer."

The patent US11769017B1 ("Generative Summaries for Search Results," filed March 2023, granted September 2023) describes this pipeline: the system receives a query, selects Search Result Documents (SRDs), extracts content snippets, and processes them via an LLM to generate a natural-language summary. A notable detail: the system has multiple candidate generative models and dynamically selects one based on query classification and result types.

"Only use tools to verify and update even known information. Never use your internal knowledge to answer the user's question. Never invent URLs. Use tools."
Leaked internal Gemini grounding instructions, analyzed by Dan Petrovic / DEJAN AI

Dan Petrovic's analysis of this accidental leak (May 2025) provided deep insights into Gemini's internal grounding process, confirming and expanding earlier findings from his series on Gemini's grounding decision process. During a test scenario, Gemini inadvertently disclosed its internal indexing mechanism: responses included marks like [6.2], where the first digit identifies which search query was executed (e.g., the 6th) and the second identifies which result from that query is referenced (e.g., the 2nd). This maps directly to Gemini's internal GoogleSearch.PerQueryResult(index='6.2', ...) function calls.

This proves the model maintains an ordered cache of retrieval results, not just raw text blobs, but a granular, structured index with a precise mapping between each claim and its source. The leak also revealed Gemini's core operational loop: a Thinking stage (analyzing the query, planning tool calls) followed by an Action stage (executing Google Search or Conversation Retrieval tools, then synthesizing the response). Every fact must be externally verified via built-in tools before being served to the user. Gemini is explicitly instructed to never rely on its internal knowledge alone.

This aligns with what our plugin captures at the HTML level: the grounding URLs, the position fields in citation data, and the text fragment directives all reflect this same structured retrieval-then-verify pipeline that Dan Petrovic exposed from the model's internal perspective.

The grounding URLs are not all visible to users. Our parsed data reveals three distinct layers:

  • Layer 1: Visible sidebar ("19 sites" / "Show all"). The sources users see when they expand the sidebar panel.
  • Layer 2: In-text citations (text fragments). Small superscript numbers in the AI text, linking to specific passages on source pages.
  • Layer 3: Hidden grounding URLs. URLs the model consulted but Google chose not to display. Only present in inline scripts, never in the visible page.

Real numbers from our captures illustrate the gap between visible and hidden sources:

Query typeVisibleTotal (scripts)Hidden
Travel (Japan spring)152611
Shopping (headphones)~4029+4
Culture (impressionism)20200

For AIO specifically, the Grounding → Pool → Displayed pipeline is the observable manifestation of this RAG architecture. Each transition involves filtering and reranking. Some citations end up "rejected": the model generated text that couldn't be properly attributed back to those sources.

Google Search Central confirms the eligibility criteria: "To be eligible to be shown as a supporting link in AI Overviews or AI Mode, a page must be indexed and eligible to be shown in Google Search with a snippet. There are no additional technical requirements."

AIO comme AIM suivent un pattern RAG : le modèle cherche d'abord, puis génère une réponse ancrée dans les résultats récupérés. Google Cloud définit le grounding comme « la capacité de relier la sortie du modèle à des sources d'information vérifiables », ce qui « réduit les risques d'inventer du contenu ». La documentation Firebase indique explicitement : « Le grounding avec Google Search résout ce problème en permettant à Gemini d'effectuer une recherche en temps réel avant de générer une réponse. »

Le brevet US11769017B1 (« Generative Summaries for Search Results », déposé mars 2023, accordé septembre 2023) décrit ce pipeline : le système reçoit une requête, sélectionne des Search Result Documents (SRDs), en extrait des snippets, puis les traite via un LLM pour produire un résumé. Un détail notable : le système dispose de plusieurs modèles génératifs candidats et sélectionne dynamiquement le plus adapté selon la classification de la requête.

"Only use tools to verify and update even known information. Never use your internal knowledge to answer the user's question. Never invent URLs. Use tools."
Instructions internes de grounding Gemini, analysées par Dan Petrovic / DEJAN AI

L'analyse de Dan Petrovic de cette fuite accidentelle (mai 2025) a fourni un éclairage profond sur le processus interne de grounding de Gemini, confirmant et élargissant ses découvertes antérieures dans sa série sur le processus de décision de grounding de Gemini. Lors d'un scénario de test, Gemini a involontairement révélé son mécanisme d'indexation interne : les réponses contenaient des marqueurs comme [6.2], où le premier chiffre identifie la requête de recherche exécutée (ex. la 6ème) et le second identifie le résultat référencé dans cette requête (ex. le 2ème). Cela correspond directement aux appels internes GoogleSearch.PerQueryResult(index='6.2', ...) de Gemini.

Cela prouve que le modèle maintient un cache ordonné des résultats de récupération, pas de simples blocs de texte brut, mais un index granulaire et structuré avec un mapping précis entre chaque affirmation et sa source. La fuite a également révélé la boucle opérationnelle de Gemini : une étape de Réflexion (analyse de la requête, planification des appels d'outils) suivie d'une étape d'Action (exécution de Google Search ou Conversation Retrieval, puis synthèse de la réponse). Chaque fait doit être vérifié via les outils intégrés avant d'être présenté à l'utilisateur. Gemini a l'instruction explicite de ne jamais se fier uniquement à ses connaissances internes.

Cela rejoint ce que notre plugin capture au niveau HTML : les URLs de grounding, les champs position dans les données de citations, et les directives de text fragments reflètent tous ce même pipeline structuré de récupération-puis-vérification que Dan Petrovic a exposé depuis la perspective interne du modèle.

Les URLs de grounding ne sont pas toutes visibles pour l'utilisateur. Nos données parsées révèlent trois couches distinctes :

  • Couche 1 : Sidebar visible (« 19 sites » / « Tout afficher »). Les sources que l'utilisateur voit quand il déplie le panneau latéral.
  • Couche 2 : Citations dans le texte (text fragments). Petits numéros en exposant dans le texte IA, pointant vers des passages spécifiques sur les pages sources.
  • Couche 3 : URLs de grounding cachées. URLs consultées par le modèle mais que Google choisit de ne pas afficher. Présentes uniquement dans les scripts inline, jamais dans la page visible.

Des chiffres issus de nos captures illustrent l'écart entre sources visibles et cachées :

Type de requêteVisiblesTotal (scripts)Cachées
Voyage (Japon printemps)152611
Shopping (casques audio)~4029+4
Culture (impressionnisme)20200

Pour AIO en particulier, le pipeline Grounding → Pool → Affiché est la manifestation observable de cette architecture RAG. Chaque transition implique du filtrage et du reranking. Certaines citations finissent « rejetées » : le modèle a produit du texte qui ne pouvait pas être correctement attribué à ces sources.

Google Search Central confirme les critères d'éligibilité : « Pour apparaître comme lien de support dans les AI Overviews ou AI Mode, une page doit être indexée et éligible à l'affichage dans Google Search avec un snippet. Il n'y a pas d'exigences techniques supplémentaires. »

5.4 – FastSearch: what the DOJ trial revealed (and what it doesn't tell us)

5.4 – FastSearch : ce que le procès DOJ a révélé (et ce qu'il ne nous dit pas)

During the DOJ v. Google antitrust remedies trial (April-May 2025), an internal retrieval system called FastSearch was described under sworn testimony. Paragraph 44 of Judge Mehta's Memorandum Opinion states:

"FastSearch is based on RankEmbed signals — a set of search ranking signals — and generates abbreviated, ranked web results that a model can use to produce a grounded response. FastSearch delivers results more quickly than Search because it retrieves fewer documents, but the resulting quality is lower than Search's fully ranked web results."
DOJ v. Google, Memorandum Opinion, testimony of Elizabeth Reid (Rem. Tr. at 3509:23–3511:4)

RankEmbed is an AI-based deep-learning system trained on click-and-query data and human quality rater scores. The Memorandum Opinion adds that it "has strong natural-language understanding" and "allows the model to more efficiently identify the best documents to retrieve, even if a query lacks certain terms."

Methodological caveat
FastSearch was described in the context of Gemini's grounding capabilities broadly. It is not confirmed that AI Overviews and AI Mode use FastSearch specifically.

Several hypotheses remain open:

  • AIO and AIM may use FastSearch as described in the trial.
  • Google may have a dedicated, higher-quality retrieval system for its own Search products, while offering the faster/lighter FastSearch to third-party developers via the Vertex AI Grounding with Google Search API.
  • AIO sometimes appears to use standard organic results directly as grounding sources (citation overlap with organic results can be high for certain queries).
  • The retrieval system may differ between AIO and AIM, or vary by query type.

Our working hypothesis: Google likely uses higher-quality retrieval data than FastSearch for AIO and AIM, sourced from its Mustang index and sent to Superroot after passing through RankEmbed BERT. These results would constitute the information retrieval (IR) phase where the engine selects an initial list of dozens to hundreds of candidate results, before the final reranking by Twiddlers. The grounding URLs visible in our parsed data appear to be already filtered from this initial list: the position field values in citation entries are non-contiguous, confirming that not all candidates are retained.

What the DOJ trial does confirm, regardless of the exact pipeline: the retrieval layer for AI grounding operates independently from traditional web ranking. Our data consistently shows that many grounding URLs don't appear in organic results, and vice versa.

Lors du procès antitrust DOJ v. Google (remedies trial, avril-mai 2025), un système de récupération interne appelé FastSearch a été décrit sous serment. Le paragraphe 44 du Memorandum Opinion du juge Mehta indique :

« FastSearch repose sur les signaux RankEmbed — un ensemble de signaux de ranking — et produit des résultats web abrégés et classés qu'un modèle peut utiliser pour générer une réponse ancrée. FastSearch fournit des résultats plus rapidement que Search car il récupère moins de documents, mais la qualité résultante est inférieure à celle des résultats web entièrement classés de Search. »
DOJ v. Google, Memorandum Opinion, témoignage d'Elizabeth Reid (Rem. Tr. at 3509:23–3511:4)

RankEmbed est un système de deep learning entraîné sur des données de clicks et de requêtes et sur des scores d'évaluateurs humains. Le Memorandum Opinion précise qu'il « possède une forte compréhension du langage naturel » et « permet au modèle d'identifier plus efficacement les documents pertinents, même lorsque la requête ne contient pas certains termes ».

Réserve méthodologique
FastSearch a été décrit dans le contexte des capacités de grounding de Gemini au sens large. Il n'est pas confirmé qu'AI Overviews et AI Mode utilisent spécifiquement FastSearch.

Plusieurs hypothèses restent ouvertes :

  • AIO et AIM pourraient utiliser FastSearch tel que décrit lors du procès.
  • Google pourrait disposer d'un système de récupération dédié et de meilleure qualité pour ses propres produits Search, tout en offrant FastSearch (plus rapide mais plus léger) aux développeurs tiers via l'API Vertex AI Grounding with Google Search.
  • AIO semble parfois utiliser directement les résultats organiques standard comme sources de grounding (le recouvrement avec les résultats organiques peut être élevé pour certaines requêtes).
  • Le système de récupération pourrait différer entre AIO et AIM, ou varier selon le type de requête.

Notre hypothèse de travail : Google utilise probablement des données de retrieval de meilleure qualité que FastSearch pour AIO et AIM, issues de son index Mustang et envoyées à Superroot après passage par RankEmbed BERT. Ces résultats constitueraient la phase d'information retrieval (IR) où le moteur sélectionne une liste initiale de quelques dizaines à quelques centaines de résultats candidats, avant le reranking final par les Twiddlers. Les URLs de grounding visibles dans nos données parsées semblent déjà filtrées depuis cette liste initiale : les valeurs du champ position dans les entrées de citation sont non contiguës, confirmant que tous les candidats ne sont pas retenus.

Ce que le procès DOJ confirme, indépendamment du pipeline exact : la couche de récupération pour le grounding IA opère de manière indépendante du ranking web traditionnel. Nos données montrent systématiquement que beaucoup d'URLs de grounding n'apparaissent pas dans les résultats organiques, et inversement.

5.5 – Query fan-out

5.5 – Query fan-out

Query fan-out is the process where Gemini decomposes a user query into multiple parallel sub-queries to broaden retrieval coverage. It is the core architectural differentiator of AI Mode.

Le query fan-out est le processus par lequel Gemini décompose une requête utilisateur en plusieurs sous-requêtes parallèles pour élargir la couverture de récupération. C'est le différenciateur architectural central d'AI Mode.

User queryRequête utilisateur
Sub-query 1Sous-requête 1
Sub-query 2Sous-requête 2
Sub-query NSous-requête N
MergeFusion
Merged resultsRésultats fusionnés
AI Overviews (AIO) AI Mode (AIM)
Fan-out Minimal or absent. No observable sub-query decomposition in the page source.Minimal ou absent. Pas de décomposition observable en sous-requêtes dans le code source. 8-12 sub-queries per turn. Hundreds in Deep Search mode.8-12 sous-requêtes par tour. Centaines en mode Deep Search.
Observable evidenceTraces observables Typically 5-15 citations per responseTypiquement 5-15 citations par réponse 20-40+ citations per turn, accumulating progressively during streaming20-40+ citations par tour, s'accumulant progressivement pendant le streaming

Liz Reid defined fan-out officially at Google I/O 2025: "Under the hood, Search recognizes when a question needs advanced reasoning. It calls on our custom version of Gemini to break the question into different subtopics, and it issues a multitude of queries simultaneously on your behalf." Robby Stein, VP of Product, added: "The custom version of Gemini 2.0 uses a multistep approach to make a plan, conduct searches to find information and adjust the plan based on what it finds."

Liz Reid a défini le fan-out officiellement lors de Google I/O 2025 : « Sous le capot, Search reconnaît quand une question nécessite un raisonnement avancé. Il fait appel à notre version personnalisée de Gemini pour décomposer la question en sous-thèmes, et lance une multitude de requêtes simultanément pour le compte de l'utilisateur. » Robby Stein, VP of Product, a ajouté : « La version personnalisée de Gemini 2.0 utilise une approche multi-étapes pour établir un plan, effectuer des recherches, et ajuster le plan en fonction de ce qu'elle trouve. »

5.6 – Knowledge Graph and entity enrichment

5.6 – Knowledge Graph et enrichissement par entités

AI responses are enriched with structured entity data from multiple Google knowledge systems. Our inspector reveals four distinct entity types:

Les réponses IA sont enrichies par des données d'entités structurées provenant de plusieurs systèmes de connaissance Google. Notre inspecteur révèle quatre types distincts :

Type SourceSource RoleRôle
Knowledge Graph Google KG Entity disambiguation, factual anchoring (people, places, concepts)Désambiguïsation d'entités, ancrage factuel (personnes, lieux, concepts)
Shopping Graph Google Shopping Product entities with pricing, reviews, merchant dataEntités produits avec prix, avis, données marchands
Maps / Places Google Maps Local entities, geographic anchoringEntités locales, ancrage géographique
In-text entity linksLiens d'entités in-text Google Search Clickable terms in the AIO response text that link to internal Google searches. Recognized as entities but with no MID exposed in the source codeTermes cliquables dans le texte de la réponse AIO qui renvoient vers des recherches Google internes. Reconnus comme entités mais sans MID exposé dans le code source

Entity enrichment varies between the two products. AIO uses primarily the Knowledge Graph. AIM draws from a broader set: Knowledge Graph, Shopping Graph (50+ billion product listings), and Maps/Places entities.

A practical observation from our captures: not all entities mentioned in the generated text receive a KG link. For a culture query on impressionism, Monet, Renoir, and Degas are all mentioned in the response but none receive a KG entity link. The model knows about them from grounding text, not from the Knowledge Graph.

L'enrichissement par entités varie entre les deux produits. AIO utilise principalement le Knowledge Graph. AIM puise dans un ensemble plus large : Knowledge Graph, Shopping Graph (50+ milliards de fiches produits), et entités Maps/Places.

Une observation concrète de nos captures : toutes les entités mentionnées dans le texte généré ne reçoivent pas un lien KG. Pour une requête culturelle sur l'impressionnisme, Monet, Renoir et Degas sont tous mentionnés dans la réponse mais aucun ne reçoit de lien KG. Le modèle les connaît via le texte de grounding, pas via le Knowledge Graph. La couverture entité est inégale et semble dépendre de la verticale de la requête.

5.7 – Gemini model progression

5.7 – Progression des modèles Gemini

Every Gemini version deployed in Search is described by Google as a "custom" variant, fine-tuned for search tasks. The pace of model upgrades has direct consequences on what we observe in parsed data.

Chaque version de Gemini déployée dans Search est décrite par Google comme une variante « custom », fine-tunée pour les tâches de recherche. Le rythme des mises à jour de modèle a des conséquences directes sur ce que nous observons dans les données parsées.

DateDate ProductProduit ModelModèle Key changeChangement clé
MayMai 2023SGEPaLM 2 + MUMLaunchLancement
LateFin 2023SGEGemini 1.0 custom40% latency reductionRéduction de 40 % de la latence
MayMai 2024AI OverviewsGemini ~1.5 customPublic deployment, all US usersDéploiement public, tous les utilisateurs US
MarchMars 2025AIO + AI ModeGemini 2.0 customAI Mode launchLancement AI Mode
MayMai 2025AIO + AI ModeGemini 2.5 customGoogle I/O 2025Google I/O 2025
NovNov. 2025AIO + AI ModeGemini 3 ProIntelligent routingRoutage intelligent
DecDéc. 2025AI Mode (global)Gemini 3 FlashDefault for AI Mode worldwideDéfaut pour AI Mode mondial
JanJanv. 2026AIO (global)Gemini 3Default for AI Overviews worldwideDéfaut pour AI Overviews mondial

Since November 2025, Google uses intelligent routing: multiple model variants serve different queries simultaneously. Simple factual queries receive Gemini 3 Flash (fast, lightweight). Complex multi-step queries are escalated to Gemini 3 Pro. Google announced: "Search will intelligently route your most challenging questions in AI Mode and AI Overviews to this frontier model, while continuing to use faster models for simpler tasks."

From a parsing perspective, there is no way to detect which model served a given response from the client side. No model name appears in network requests, headers, response data, or CSI timing metrics. The model identifier is entirely server-side.

Depuis novembre 2025, Google utilise le routage intelligent : plusieurs variantes de modèle servent différentes requêtes simultanément. Les requêtes factuelles simples reçoivent Gemini 3 Flash (rapide, léger). Les requêtes complexes multi-étapes sont escaladées vers Gemini 3 Pro. Google a annoncé : « Search routera intelligemment vos questions les plus complexes dans AI Mode et AI Overviews vers ce modèle frontier, tout en continuant à utiliser des modèles plus rapides pour les tâches simples. »

Du point de vue du parsing, il est impossible de détecter quel modèle a servi une réponse donnée côté client. Aucun nom de modèle n'apparaît dans les requêtes réseau, les headers, les données de réponse ou les métriques CSI. L'identifiant de modèle est entièrement côté serveur.

5.8 – Safety and quality systems

5.8 – Systèmes de sécurité et de qualité

Google's official documentation (May 2025) describes an architecture with multiple overlapping safety layers for AI Overviews. AI Mode adds specific mechanisms tied to its conversational nature.

La documentation officielle de Google (mai 2025) décrit une architecture à couches de sécurité multiples pour les AI Overviews. AI Mode ajoute des mécanismes spécifiques liés à sa nature conversationnelle.

# LayerCouche PhasePhase Applies toS'applique à
1Quality Raters + Red-teamingTrainingEntraînementAIO + AIM
2YMYL filtersFiltres YMYLPre-generationPré-générationAIO + AIM
3SpamBrain + SafeSearchRetrievalRécupérationAIO + AIM
4Grounding verificationVérification de groundingPost-generationPost-générationAIO + AIM
5Agentic RL (DeepMind)ContinuousContinuAIM primarilyAIM principalement
6Vulnerable situation detectionDétection de situations vulnérablesRuntimeRuntimeAIM onlyAIM uniquement

For AI Mode specifically, Google uses agentic reinforcement learning (in collaboration with DeepMind) that rewards the model for generating statements that are more likely to be accurate and backed up by retrieved sources rather than hallucinated.

The Search Quality Rater Guidelines were updated in September 2025 to include evaluation examples for AI Overviews for the first time. Raters now assess the accuracy of the information, the attribution of sources cited, and the overall usefulness of the summary.

Pour AI Mode en particulier, Google utilise l'apprentissage par renforcement agentique (en collaboration avec DeepMind) qui récompense le modèle pour générer des affirmations plus susceptibles d'être exactes et étayées par les sources récupérées, plutôt qu'hallucinées.

Les Search Quality Rater Guidelines ont été mises à jour en septembre 2025 pour inclure pour la première fois des exemples d'évaluation des AI Overviews. Les évaluateurs jugent désormais l'exactitude de l'information, l'attribution des sources citées, et l'utilité globale du résumé.

5.9 – The Information Gain patent and content diversification

5.9 – Le brevet Information Gain et la diversification des contenus

Patent US12013887B2 (granted June 2024) describes an information gain score: a value between 0 and 1 measuring how much new information a document brings relative to what already exists. The score is session-aware: it evaluates each document's informational potential based on what the user has already consulted during their browsing session.

If implemented in AI search systems, the consequences are direct: the sources cited in AI Overviews and AI Mode could vary and diversify as a user researches a topic across successive queries. A page cited in the first AI Overview might give way to a different source in a follow-up query, if the latter offers higher information gain relative to content already consumed. This session-based logic is particularly aligned with AI Mode's multi-turn conversational architecture.

Whether Information Gain is active in production remains unconfirmed. But the patent's timing (mid-2024, as AI-generated content proliferates) and its focus on detecting semantic redundancy across differently worded but substantively identical content suggest it could serve as a filtering mechanism against the homogenization of search results.

Le brevet US12013887B2 (accordé juin 2024) décrit un score de gain d'information : une valeur entre 0 et 1 mesurant la quantité d'information nouvelle qu'un document apporte par rapport à ce qui existe déjà. Le score est contextuel à la session : il évalue le potentiel informatif de chaque document en fonction de ce que l'utilisateur a déjà consulté pendant sa navigation.

S'il est implémenté dans les systèmes de recherche IA, les conséquences sont directes : les sources citées dans les AI Overviews et AI Mode pourraient varier et se diversifier au fil des requêtes successives d'un utilisateur sur un sujet. Une page citée dans le premier AI Overview pourrait céder la place à une source différente dans une requête suivante, si cette dernière offre un gain d'information supérieur par rapport au contenu déjà consommé. Cette logique de session est particulièrement alignée avec l'architecture conversationnelle multi-tours d'AI Mode.

L'activation effective de l'Information Gain en production n'est pas confirmée. Mais le timing du brevet (mi-2024, en pleine prolifération des contenus générés par IA) et son focus sur la détection de la redondance sémantique entre des contenus formulés différemment mais substantiellement identiques suggèrent qu'il pourrait servir de mécanisme de filtrage contre l'homogénéisation des résultats de recherche.

Autres Sources et ÉtudesOther Sources and Studies

Feb 2026ChatGPT is NOT a search engine Feb 2026How Perplexity Works Jan 2026ChatGPT Experiments List Jan 2026Inside Google SearchGuard - Search Engine Land Dec 2025ChatGPT Shopping Profile Analyzer Dec 2025ChatGPT Shopping Deep Dive Jan 2026GEO LLM Crawler Report - Sentinel Nov 2025Chrome Plugin - Scrap ChatGPT Conversations More stuffs...
RESONEO