Requêtes fan-out et visibilité IA

Requêtes fan-out et visibilité IA : un indicateur séduisant… mais profondément fragile

Table des matières

Depuis quelques mois, un nouveau concept circule dans les sphères SEO/GEO : les fan-out queries.
Présentées comme un moyen de mesurer sa visibilité dans les réponses des IA (ChatGPT, Gemini, Perplexity, etc.), elles sont parfois vendues comme le nouveau KPI ultime à suivre pour “exister dans l’IA”.

Évidemment, les outils qui proposent cette nouvelle option en profitent pour largement augmenter leurs tarifs.

Le problème ?

👉 Le concept est intéressant.
👉 L’interprétation qu’on en fait est souvent trompeuse.
👉 Et l’usage qui en est vendu est, dans bien des cas, méthodologiquement bancal.

Prenons le temps de poser les choses calmement.

A lire > Qu’est-ce qu’une query fan-out ?

Ce que les fan-out queries prétendent mesurer

Dans leur version “GEO”, les requêtes fan-out consistent à :

  • poser une même question sous de multiples formulations
  • interroger plusieurs IA
  • comparer les réponses
  • observer si un site, une marque ou un nom ressort
  • en déduire une “visibilité IA”

Sur le papier, l’idée est séduisante :

« Si une IA me cite souvent, c’est que je suis visible pour elle. »

Sauf que cette phrase repose sur un présupposé faux.

Les IA ne “positionnent” pas des sites

Première erreur fondamentale :
les IA ne fonctionnent pas comme des moteurs de recherche.

Elles :

  • ne classent pas des pages
  • n’appliquent pas un algorithme de ranking stable
  • n’ont pas une SERP cachée
  • n’exécutent pas une logique déterministe

Une réponse IA est :

  • probabiliste
  • contextuelle
  • sensible à la formulation
  • sensible à l’historique
  • sensible à la température
  • sensible au modèle utilisé
  • sensible au moment de la requête

Autrement dit :
👉 la citation n’est pas un signal stable
👉 l’absence de citation n’est pas une contre-preuve

Mesurer une IA comme on mesurerait Google, c’est déjà partir sur une mauvaise base.

Le vrai problème des requêtes fan-out : la reproductibilité

Une bonne métrique répond à une question simple :

« Si je refais la mesure demain, est-ce que j’obtiens quelque chose de comparable ? »

Avec les fan-out queries :

  • la réponse varie
  • les sources changent
  • les citations apparaissent puis disparaissent
  • le modèle “oublie” parfois ce qu’il citait la veille

On ne mesure donc pas une visibilité.
On échantillonne une perception temporaire.

C’est intéressant intellectuellement.
Mais c’est fragile analytiquement.

Le biais le plus dangereux : confondre citation et usage

Un autre glissement très fréquent consiste à croire que :

« Si une IA me cite, alors elle m’utilise. »

Or, dans la majorité des cas :

  • l’IA ne publie pas ses sources
  • elle ne cite pas systématiquement
  • elle peut utiliser une information sans jamais nommer le site
  • elle peut citer un site sans réellement s’y référer structurellement

La citation est un artefact de réponse, pas une preuve d’influence.

Ce que les logs disent… quand les fan-out supposent

À l’inverse, il existe une source de données beaucoup moins sexy, mais bien plus robuste :
👉 l’analyse de logs serveur.

Les logs permettent d’observer :

  • des référents IA réels
  • des user-agents spécifiques
  • des patterns de requêtes
  • des volumes
  • des tendances
  • des progressions ou des stagnations

Certes :

  • toutes les IA ne passent pas systématiquement par un clic
  • toutes les réponses ne génèrent pas de trafic
  • les sources ne sont pas toujours visibles

Mais une chose reste vraie :
👉 les hits et les tendances évoluent de façon cohérente dans le temps

Et c’est précisément ce qu’on cherche quand on analyse un phénomène émergent.

Le « Referrer » n’est que la partie émergée de l’iceberg

La nuance indispensable : Flux identifié vs Réalité totale

Soyons transparents jusqu’au bout : l’analyse des logs a, elle aussi, sa limite technique. Une part croissante du trafic issu des IA est ce qu’on appelle du « Dark Traffic ».

Entre les applications mobiles qui ne passent pas toujours le « referrer » (l’origine de la visite) et les politiques de confidentialité des navigateurs, une visite venant de ChatGPT ou Perplexity peut parfois apparaître dans vos statistiques comme un simple « Accès Direct ».

Alors, est-ce que cela invalide la méthode ? Au contraire.

Ce qui nous intéresse ici n’est pas le volume absolu, mais la dynamique de la courbe. Le trafic identifié (celui qui possède un referrer clair type openai.com ou bingbot) agit comme un échantillon représentatif — un « proxy ».

  • Si votre trafic référent IA identifié passe de 10 à 100 visites mensuelles, il est statistiquement certain que votre trafic IA « invisible » a suivi une progression similaire.
  • Ce qui compte, ce n’est pas de savoir si vous avez eu 100 ou 150 visites, mais de valider que la tendance est haussière.

Attention au paradoxe du « Zéro-Clic »

Il faut toutefois garder à l’esprit une distinction subtile : le log mesure un appel au serveur (le hit), pas la visibilité pure.

Il existe un scénario où votre stratégie GEO est trop efficace : l’IA ingère votre contenu et fournit une réponse si parfaite à l’internaute que celui-ci n’a plus besoin de cliquer sur votre lien. Dans ce cas, votre « visibilité » est maximale, mais votre trafic referrer stagne.

C’est pourquoi l’analyse de logs doit idéalement se lire en parallèle de l’évolution des recherches sur votre nom de marque (Brand Search). Mais en attendant des outils plus précis, le log reste le seul indicateur de « vérité terrain » prouvant qu’un échange réel a eu lieu, loin des simulations théoriques des requêtes fan-out.

Mesurer une IA n’a pas de sens. Observer des usages, si.

C’est probablement le point le plus important.

On ne peut pas :

  • “auditer” une IA comme un moteur
  • “forcer” une citation
  • “optimiser” un prompt comme un mot-clé
  • bâtir un KPI solide sur une sortie probabiliste

En revanche, on peut :

  • observer des usages
  • analyser des flux
  • comparer des périodes
  • identifier des signaux faibles
  • croiser logs, contenus, structures, données

La différence est subtile, mais elle change tout.

Alors, faut-il jeter les fan-out queries ?

Non.
Mais il faut leur donner leur juste place.

Les requêtes fan-out sont :

  • exploratoires
  • qualitatives
  • utiles pour comprendre des tendances de discours
  • intéressantes pour tester des hypothèses

Elles ne sont pas :

  • un indicateur de performance
  • un KPI fiable
  • une preuve de visibilité
  • un substitut à l’analyse réelle des usages

Les utiliser comme tel, c’est se raconter une histoire rassurante… mais fausse.

La ruée vers l’or des outils GEO

Il est impossible d’ignorer l’ébullition actuelle du marché. Surfant sur la vague de l’IA, de nombreuses solutions SaaS apparaissent chaque semaine, promettant de monitorer votre « Share of Model » à grand renfort de graphiques complexes et de requêtes fan-out automatisées.

Ces nouveaux acteurs jouent sur un levier psychologique puissant : la peur de rater le train (FOMO). Ils vendent une illusion de contrôle sur une technologie qui, par nature, nous échappe encore.

Le piège du ROI : Dépenser pour mesurer ou pour exister ?

Au-delà de la fiabilité technique, il y a une réalité économique brutale. Les abonnements à ces outils de « Suivi de positionnement IA » coûtent souvent plusieurs centaines d’euros par mois.

Il faut se poser la question de la rentabilité de cet investissement :

  • En SEO classique, un audit technique vous donne une liste d’actions correctives claires (corriger une 404, optimiser une balise Title).
  • En GEO, savoir que ChatGPT ne vous cite pas le mardi matin à 10h ne vous donne pas la recette immédiate pour y remédier, car l’algorithme est une « boîte noire ».

Un conseil simple avant de sortir la carte bleue : faites le test vous-même.

Prenez votre sujet principal et interrogez ChatGPT, Gemini ou Perplexity 5 fois de suite, à quelques minutes d’intervalle (ou en ouvrant de nouvelles conversations). Vous constaterez très vite que les sources citées varient, apparaissent et disparaissent.

Si le résultat est instable à l’œil nu, quelle est la valeur d’un rapport payant qui fige cette loterie dans un tableau Excel ?

Pire, c’est un problème d’allocation de ressources. Chaque euro dépensé pour mesurer une visibilité fantôme est un euro qui n’est pas investi dans ce qui compte vraiment : la création de données structurées, le renforcement de votre autorité de marque ou la production de contenus experts.

Mieux vaut investir ce budget pour bâtir l’actif (votre contenu) plutôt que pour financer le thermomètre (l’outil), surtout quand ce dernier est cassé.

L’impact écologique et les effets de bord d’une telle pratique

Il y a un angle qu’on ne peut pas ignorer : l’empreinte écologique de ces requêtes massives. En multipliant les interrogations automatisées des IA juste pour « tester » des positions aléatoires, on consomme des ressources énergétiques considérables. Les centres de données qui font tourner ces modèles d’IA ne sont pas neutres en carbone, et chaque requête répétée à grande échelle a un coût environnemental.

De plus, il y a un risque de biais de rétroaction. En bombardant les IA avec ce type de questions, on peut finir par leur faire croire que ce type de demande est représentatif des attentes générales. Au final, on risque de fausser leur perception et de créer des effets de bord, voire de saturer inutilement les ressources, sans apporter de vraie valeur.

En bref, au-delà de l’inutilité méthodologique, il y a aussi une question de responsabilité écologique et d’impact sur les IA elles-mêmes. Autant dire qu’il vaut mieux réfléchir à deux fois avant de se lancer dans cette frénésie de requêtes.

Conclusion (non confortable)

La GEO est un terrain passionnant.
Mais c’est aussi un terrain idéologique, où beaucoup projettent ce qu’ils aimeraient mesurer.

Aujourd’hui :

  • les IA ne sont pas mesurables comme Google
  • la citation n’est pas un signal suffisant
  • les fan-out queries sont des outils d’exploration, pas de validation
  • les logs restent l’un des rares points d’ancrage factuels

Le reste relève encore de l’expérimentation.
Et c’est très bien comme ça — à condition de ne pas le vendre comme une vérité établie.

C’est précisément pour éviter ces biais que, chez ONI, nous avons développé notre propre outil fondé sur l’analyse des logs serveur : non pas pour “mesurer” les IA, mais pour observer des usages réels et des tendances concrètes.

Image de Patrick DUHAUT

Patrick DUHAUT

Webmaster depuis les tous débuts du Web, j'ai probablement tout vu sur le Net et je ne suis pas loin d'avoir tout fait. Ici, je partage des trucs et astuces qui fonctionnent, sans secret mais sans esbrouffe ! J'en profite également pour détruire quelques fausses bonnes idées...