Votre marque est-elle citée différemment selon que la question pose un « quel est le meilleur… » ou un « comment fonctionne… » ? Après avoir analysé plus de 6,8 millions de citations issues de 1,6 million de réponses LLM, Yext a documenté en 2025 une réalité que peu d’équipes marketing avaient anticipée : ChatGPT et Perplexity ne jouent pas selon les mêmes règles et les signaux qui prédisent votre visibilité sur Google n’ont presque aucune corrélation avec ceux qui gouvernent les citations dans les moteurs IA.
Six mois de suivi d’une même marque sur les deux plateformes font apparaître des comportements structurellement opposés et quelques angles morts que l’outillage SEO classique ne détecte pas.
ChatGPT et Perplexity : deux logiques de citation qui ne se ressemblent pas
Perplexity crawle le web en temps réel et intègre 4 à 8 sources cliquables dans chaque réponse. ChatGPT travaille essentiellement depuis ses données d’entraînement, sauf activation explicite du mode web, et même là, il cite une marque 3,2 fois plus souvent qu’il ne fournit un lien. Une différence architecturale qui change radicalement ce que « présence » signifie dans chacun des deux systèmes.
Dans ChatGPT, la notoriété de marque prédit mieux les citations que le portefeuille de backlinks. Plusieurs analyses 2025 ont mesuré une corrélation de 0,334 entre le brand search volume et la fréquence de mention dans les LLM, là où les indicateurs de domaine (DA, nombre de referring domains) plafonnent à 0,18. Les marques dans le top 25% des mentions web obtiennent 10 fois plus de visibilité IA que celles du quartile inférieur. Ce que ça signifie en pratique : une marque peu connue avec un excellent blog SEO sera sous-représentée dans ChatGPT, quand une marque connue avec un site médiocre sera régulièrement citée.
Sur Perplexity, votre présence dans des annuaires sectoriels de confiance pèse plus que votre blog corporate. Sur les requêtes subjectives sans marque (« quel est le meilleur… »), les sources de niche représentent jusqu’à 24% des citations de Perplexity, la proportion la plus haute parmi les trois grands LLM testés par Yext. Yelp, TripAdvisor ou les plateformes d’avis métier pèsent davantage que les pages de votre propre domaine pour ce type de requête.
Ce que six mois de données font apparaître que les snapshots ponctuels cachent
Un test mensuel isolé ne suffit pas à voir les dynamiques. Les marques qui suivent leur présence chaque semaine constatent trois phénomènes invisibles sur un scan ponctuel.
- La volatilité par modèle est extrême. Superlines a mesuré en mars 2026 un écart de 615x dans le volume de citations d’une même marque entre Grok et Claude, sur la même période. Les chiffres n’ont rien en commun.
- L’impact d’un nouveau contenu ou de citations dans des sources tierces sur les réponses LLM se matérialise généralement entre 3 et 6 mois, pas en quelques jours comme sur Google. Un suivi court ne capte que l’état antérieur.
- Le sentiment se dégrade sans prévenir. 44% des requêtes IA retournent zéro mention de marque. Parmi les marques citées, il varie au fil des mises à jour de modèle et des contenus récemment intégrés, sans qu’aucune alerte ne soit envoyée.
Six mois, c’est aussi la fenêtre minimum pour distinguer une tendance d’un bruit statistique sur des plateformes qui mettent à jour leurs modèles sans préavis.
Le paradoxe du classement Google : bien ranker ne prédit pas les citations LLM
Ahrefs a documenté en 2026 que 80% des citations dans les LLM proviennent de pages absentes du top 100 Google pour la même requête. Seulement 38% des citations des AI Overviews viennent du top 10. SE Ranking a confirmé sur 2,3 millions de pages que le trafic réel de domaine est le premier prédicteur de citation IA, 3 fois plus corrélé que le DA ou les backlinks. Ces deux types de métriques ne se recoupent que partiellement.
Quels signaux surveiller sur une fenêtre de six mois ?
Les plateformes spécialisées comme Otterly AI, Profound ou Siftly ont standardisé quatre indicateurs depuis 2025 : le taux de mention (fréquence à laquelle la marque apparaît dans les réponses), le taux de citation (mentions accompagnées d’un lien source), le sentiment (positif, neutre ou négatif dans le contexte de la réponse) et le share of voice par rapport aux concurrents directs.
Sur six mois, c’est le share of voice concurrentiel qui produit les insights les plus actionnables. Il normalise les fluctuations de modèle : si votre part de mention baisse de 18% mais que vos concurrents baissent aussi, la cause est probablement un changement de modèle, pas un problème éditorial. Si vous seul baissez, les raisons sont à chercher dans vos données structurées ou votre contenu récent.
Conductor a enquêté en 2026 auprès de 250 directeurs marketing et cadres dirigeants : 54% des marketeurs américains prévoient d’implémenter le GEO (Generative Engine Optimization, optimisation pour les moteurs génératifs) dans les 3 à 6 prochains mois. Selon Dimension Market Research, ce marché pesait 848 millions de dollars en 2025, avec une projection à 33,7 milliards d’ici 2034.
Les outils de monitoring AI ne couvrent pas tous les mêmes plateformes, et c’est rarement mentionné. Otterly AI suit 6 moteurs IA (ChatGPT, Perplexity, Gemini, Copilot, AI Overviews, AI Mode). Profound et Siftly ont des couvertures différentes. Avant de comparer vos données sur six mois, vérifiez que la couverture n’a pas changé en cours de période, sinon la tendance mesurée sera celle de l’outil, pas celle des LLM.
Ce que les guides de monitoring ne disent généralement pas
La plupart des articles sur le sujet s’arrêtent à la liste d’outils. Six mois de données font apparaître quelque chose de plus inconfortable : la disparité entre plateformes est plus radicale qu’anticipé et l’optimisation pour l’une peut activement nuire à l’autre.
Perplexity valorise les sources sectorielles de niche et les annuaires métier. ChatGPT favorise les marques à forte densité de mentions sur le web généraliste et le contenu long qui a généré des discussions. Une stratégie uniquement orientée « autorité de domaine » rate Perplexity. Une stratégie uniquement orientée « annuaires sectoriels » reste sous-représentée dans ChatGPT.
« 75% des personnes interrogées déclarent utiliser les outils de recherche IA plus qu’il y a un an et 43% les utilisent quotidiennement ou plus souvent. » (Yext, 2025)
93% des sessions de recherche IA se terminent sans visite sur un site externe (Semrush, septembre 2025). Ce chiffre pose la question de ce que « visibilité » signifie quand la quasi-totalité des interactions reste dans l’interface du LLM. Le trafic de référence IA ne représente encore que 1,08% du trafic web global mais sur ce volume, ChatGPT génère 87,4% des clics sortants (Conductor, 2026), avec un taux de conversion à 15,9% contre 1,76% pour le trafic organique Google (Seer Interactive, 2026).
Le suivi de marque dans les LLM ressemble encore peu à ce que les équipes connaissent du SEO. Les métriques ont des noms familiers mais elles mesurent autre chose. Et les modèles changent sans publier de changelog.