Depuis quelques mois, un nouveau concept circule dans les sphères SEO/GEO : les fan-out queries.
Présentées comme un moyen de mesurer sa visibilité dans les réponses des IA (ChatGPT, Gemini, Perplexity, etc.), elles sont parfois vendues comme le nouveau KPI ultime à suivre pour “exister dans l’IA”.
Évidemment, les outils qui proposent cette nouvelle option en profitent pour largement augmenter leurs tarifs.
Le problème ?
👉 Le concept est intéressant.
👉 L’interprétation qu’on en fait est souvent trompeuse.
👉 Et l’usage qui en est vendu est, dans bien des cas, méthodologiquement bancal.
Prenons le temps de poser les choses calmement.
Ce que les fan-out queries prétendent mesurer
Dans leur version “GEO”, les requêtes fan-out consistent à :
- poser une même question sous de multiples formulations
- interroger plusieurs IA
- comparer les réponses
- observer si un site, une marque ou un nom ressort
- en déduire une “visibilité IA”
Sur le papier, l’idée est séduisante :
« Si une IA me cite souvent, c’est que je suis visible pour elle. »
Sauf que cette phrase repose sur un présupposé faux.
Les IA ne “positionnent” pas des sites
Première erreur fondamentale :
les IA ne fonctionnent pas comme des moteurs de recherche.
Elles :
- ne classent pas des pages
- n’appliquent pas un algorithme de ranking stable
- n’ont pas une SERP cachée
- n’exécutent pas une logique déterministe
Une réponse IA est :
- probabiliste
- contextuelle
- sensible à la formulation
- sensible à l’historique
- sensible à la température
- sensible au modèle utilisé
- sensible au moment de la requête
Autrement dit :
👉 la citation n’est pas un signal stable
👉 l’absence de citation n’est pas une contre-preuve
Mesurer une IA comme on mesurerait Google, c’est déjà partir sur une mauvaise base.
Le vrai problème des requêtes fan-out : la reproductibilité
Une bonne métrique répond à une question simple :
« Si je refais la mesure demain, est-ce que j’obtiens quelque chose de comparable ? »
Avec les fan-out queries :
- la réponse varie
- les sources changent
- les citations apparaissent puis disparaissent
- le modèle “oublie” parfois ce qu’il citait la veille
On ne mesure donc pas une visibilité.
On échantillonne une perception temporaire.
C’est intéressant intellectuellement.
Mais c’est fragile analytiquement.
Le biais le plus dangereux : confondre citation et usage
Un autre glissement très fréquent consiste à croire que :
« Si une IA me cite, alors elle m’utilise. »
Or, dans la majorité des cas :
- l’IA ne publie pas ses sources
- elle ne cite pas systématiquement
- elle peut utiliser une information sans jamais nommer le site
- elle peut citer un site sans réellement s’y référer structurellement
La citation est un artefact de réponse, pas une preuve d’influence.
Ce que les logs disent… quand les fan-out supposent
À l’inverse, il existe une source de données beaucoup moins sexy, mais bien plus robuste :
👉 l’analyse de logs serveur.
Les logs permettent d’observer :
- des référents IA réels
- des user-agents spécifiques
- des patterns de requêtes
- des volumes
- des tendances
- des progressions ou des stagnations
Certes :
- toutes les IA ne passent pas systématiquement par un clic
- toutes les réponses ne génèrent pas de trafic
- les sources ne sont pas toujours visibles
Mais une chose reste vraie :
👉 les hits et les tendances évoluent de façon cohérente dans le temps
Et c’est précisément ce qu’on cherche quand on analyse un phénomène émergent.
Mesurer une IA n’a pas de sens. Observer des usages, si.
C’est probablement le point le plus important.
On ne peut pas :
- “auditer” une IA comme un moteur
- “forcer” une citation
- “optimiser” un prompt comme un mot-clé
- bâtir un KPI solide sur une sortie probabiliste
En revanche, on peut :
- observer des usages
- analyser des flux
- comparer des périodes
- identifier des signaux faibles
- croiser logs, contenus, structures, données
La différence est subtile, mais elle change tout.
Alors, faut-il jeter les fan-out queries ?
Non.
Mais il faut leur donner leur juste place.
Les requêtes fan-out sont :
- exploratoires
- qualitatives
- utiles pour comprendre des tendances de discours
- intéressantes pour tester des hypothèses
Elles ne sont pas :
- un indicateur de performance
- un KPI fiable
- une preuve de visibilité
- un substitut à l’analyse réelle des usages
Les utiliser comme tel, c’est se raconter une histoire rassurante… mais fausse.
L’impact écologique et les effets de bord d’une telle pratique
Il y a un angle qu’on ne peut pas ignorer : l’empreinte écologique de ces requêtes massives. En multipliant les interrogations automatisées des IA juste pour « tester » des positions aléatoires, on consomme des ressources énergétiques considérables. Les centres de données qui font tourner ces modèles d’IA ne sont pas neutres en carbone, et chaque requête répétée à grande échelle a un coût environnemental.
De plus, il y a un risque de biais de rétroaction. En bombardant les IA avec ce type de questions, on peut finir par leur faire croire que ce type de demande est représentatif des attentes générales. Au final, on risque de fausser leur perception et de créer des effets de bord, voire de saturer inutilement les ressources, sans apporter de vraie valeur.
En bref, au-delà de l’inutilité méthodologique, il y a aussi une question de responsabilité écologique et d’impact sur les IA elles-mêmes. Autant dire qu’il vaut mieux réfléchir à deux fois avant de se lancer dans cette frénésie de requêtes.
Conclusion (non confortable)
La GEO est un terrain passionnant.
Mais c’est aussi un terrain idéologique, où beaucoup projettent ce qu’ils aimeraient mesurer.
Aujourd’hui :
- les IA ne sont pas mesurables comme Google
- la citation n’est pas un signal suffisant
- les fan-out queries sont des outils d’exploration, pas de validation
- les logs restent l’un des rares points d’ancrage factuels
Le reste relève encore de l’expérimentation.
Et c’est très bien comme ça — à condition de ne pas le vendre comme une vérité établie.
C’est précisément pour éviter ces biais que, chez ONI, nous avons développé notre propre outil fondé sur l’analyse des logs serveur : non pas pour “mesurer” les IA, mais pour observer des usages réels et des tendances concrètes.