Verdict immédiat : si vous ne mesurez pas encore votre visibilité dans les réponses des IA conversationnelles, vous pilotez à l'aveugle sur un canal qui pèsera plus de 25 % du trafic de découverte d'ici fin 2026. Ce n'est pas une prédiction alarmiste, c'est la trajectoire observable depuis que ChatGPT dépasse les 900 millions d'utilisateurs hebdomadaires et que Perplexity s'installe comme moteur de recherche conversationnel de référence.
J'ai commencé à tracker la visibilité IA de mes clients en septembre 2025. À l'époque, c'était artisanal : des prompts manuels, un tableur, beaucoup de copier-coller. Neuf mois plus tard, des métriques standardisées émergent et des outils se structurent. Voici ce qui fonctionne concrètement, ce qui ne fonctionne pas encore, et comment mettre en place un suivi exploitable sans y passer vos journées.
Les trois métriques qui structurent le suivi#
Avant de parler d'outils, il faut comprendre ce qu'on mesure. Trois métriques se sont imposées dans la pratique, et elles couvrent des dimensions complémentaires.
Le Share of Voice IA (SOV-AI)#
Le SOV-AI mesure la fréquence à laquelle votre marque apparaît dans les réponses IA sur un ensemble de requêtes cibles, rapportée au total des mentions de votre secteur. C'est l'équivalent direct du share of voice en SEO classique, mais appliqué aux réponses générées.
Concrètement : vous définissez 50 requêtes représentatives de votre marché ("meilleur outil CRM PME", "comparatif solution emailing", etc.), vous interrogez trois LLM (ChatGPT, Gemini, Perplexity), et vous calculez le ratio de fois où votre marque est citée vs le total des citations. Si votre concurrent apparaît dans 38 réponses sur 50 et vous dans 12, votre SOV-AI relatif est de 24 % contre 76 %.
Un client SaaS B2B que je suis depuis janvier 2026 est passé de 8 % à 31 % de SOV-AI en quatre mois. Ce qui a bougé : une refonte complète de sa page Wikipedia (qui était vide), la publication de trois études de cas reprises par des médias sectoriels, et un balisage schema.org Organization beaucoup plus détaillé. Rien de sorcier, mais personne ne le faisait.
Le Brand Mention Rate (BMR)#
Le BMR est plus granulaire. Il mesure non seulement la présence, mais la qualité de la mention. Une mention peut être primaire (votre marque est recommandée en premier), secondaire (citée comme alternative), contextuelle (mentionnée dans une explication sans recommandation), ou négative (citée comme exemple de ce qu'il faut éviter).
La distinction est capitale. J'ai un client dont le BMR brut est excellent (présent dans 70 % des réponses sur ses requêtes cibles), mais dont les mentions sont à 80 % contextuelles. Il est cité comme référence historique du secteur, jamais comme choix recommandé. Son concurrent direct a un BMR de 45 %, mais 60 % de mentions primaires. En termes d'impact business, le concurrent gagne largement.
Le Citation Accuracy Score (CAS)#
Le CAS mesure la précision factuelle des informations que les LLM donnent sur vous. Prix corrects, fonctionnalités actuelles, positionnement juste. Sur les audits que j'ai réalisés, le CAS moyen tourne autour de 55 %. Près de la moitié des informations que les LLM retournent sur une marque sont obsolètes ou inexactes.
C'est la métrique qui m'a le plus surpris. Je m'attendais à des approximations, pas à un taux d'erreur aussi élevé. Un client fintech avait son prix d'entrée affiché à 29 euros par mois dans les réponses ChatGPT alors qu'il était passé à 49 euros depuis huit mois. Les prospects arrivaient avec une attente de prix fausse, ce qui tuait le taux de conversion du call de découverte.
Mise en place concrète : la méthode sans usine à gaz#
L'erreur que je vois le plus souvent : vouloir tout tracker sur tous les LLM pour toutes les requêtes possibles. C'est le meilleur moyen de ne rien en faire.
Ma recommandation : commencez par 20 requêtes, trois LLM (ChatGPT, Gemini, Perplexity), un suivi bimensuel. C'est suffisant pour dégager des tendances et prioriser les actions. Vous élargirez après.
Pour la sélection des requêtes, reprenez votre liste de mots-clés SEO prioritaires et reformulez-les en questions conversationnelles. "Meilleur CRM PME" devient "Quel CRM me recommandes-tu pour une PME de 20 personnes ?". "Comparatif emailing" devient "Compare Brevo et Mailchimp pour un e-commerce". Les LLM répondent à des questions, pas à des mots-clés. Si vous testez avec des requêtes Google classiques, vos données seront biaisées.
Pour chaque requête, documentez : la réponse complète, la position de votre marque (absente, citée, recommandée, recommandée en premier), le sentiment de la mention, et les erreurs factuelles éventuelles. Un simple tableur suffit pour les premiers mois. Google Sheets avec un onglet par LLM, une ligne par requête, une colonne par date de mesure.
Le point critique que tout le monde néglige : la variabilité des réponses. ChatGPT ne donne pas toujours la même réponse à la même question. La température du modèle, le contexte de conversation, les mises à jour du corpus créent des variations. Pour avoir des données exploitables, je lance chaque requête trois fois par session et je retiens la réponse médiane. C'est fastidieux manuellement, c'est automatisable avec les API, et c'est indispensable pour éviter de tirer des conclusions sur du bruit statistique.
Les outils qui automatisent le suivi#
Le marché des outils de monitoring IA est en pleine structuration. Quelques catégories se dessinent.
Les trackers spécialisés (Otterly.ai, Peec AI) interrogent les LLM à intervalle régulier sur vos requêtes et construisent des dashboards de suivi. L'avantage : l'automatisation. L'inconvénient : la couverture LLM est inégale, et les prix restent élevés pour ce que c'est (comptez 200 à 500 euros par mois pour un suivi sérieux).
Les plateformes SEO historiques ajoutent des modules IA. Advanced Web Ranking a lancé son "AI Brand Visibility Insights", Semrush a lancé son AI Visibility Toolkit. L'intégration dans un outil existant est un vrai plus pour les équipes qui ne veulent pas multiplier les abonnements.
Les solutions API-first (type Waikay) permettent de construire des pipelines de collecte sur mesure. C'est la voie que je privilégie pour les clients avec des besoins spécifiques, mais ça demande des compétences techniques. Google facture ses appels API Gemini, OpenAI a ses propres tarifs. Pour un suivi de 50 requêtes sur trois LLM, deux fois par mois, comptez entre 30 et 80 euros de coûts API bruts, hors développement.
Mon avis après six mois de tests : aucun outil n'est encore au niveau de ce que Semrush ou Ahrefs offrent pour le SEO classique. On en est au stade où les premiers SaaS de tracking SEO étaient en 2010. Fonctionnel, mais bancal. Si vous avez le budget, prenez un outil spécialisé pour gagner du temps. Sinon, le suivi manuel bimensuel avec un tableur structuré reste parfaitement viable.
Ce qui influence réellement votre visibilité IA#
J'ai changé d'avis sur ce sujet en creusant les données. Je pensais au départ que le contenu de votre propre site était le levier principal. En réalité, ce sont les mentions tierces qui pèsent le plus dans les réponses des LLM.
Perplexity, qui cite explicitement ses sources, permet de vérifier cette hypothèse. Sur 200 réponses analysées pour des requêtes commerciales, 68 % des sources citées sont des contenus tiers (médias, blogs spécialisés, comparatifs indépendants, forums). Les sites officiels des marques ne représentent que 22 % des citations. Les 10 % restants viennent de Wikipedia, Crunchbase et les profils sociaux.
Conséquence pratique : votre stratégie de PR et de relations presse a plus d'impact sur votre AI Brand Score que l'optimisation de votre propre site. Un article de fond dans un média sectoriel qui vous positionne correctement vaut plus que dix pages de contenu optimisé sur votre blog. Les LLM privilégient la corroboration multi-sources. Si plusieurs sources indépendantes disent la même chose de votre marque, le modèle a confiance. Si seul votre site parle de vous, la confiance est faible.
L'autre levier sous-estimé : la fraîcheur des données structurées. Les LLM avec accès web (Perplexity, ChatGPT Browse, Gemini grounded) consultent vos pages en temps réel. Un balisage schema.org Organization à jour, avec les bons prix, les bonnes fonctionnalités, les bons cas d'usage, corrige les erreurs du corpus d'entraînement. C'est le seul moyen direct d'influencer la précision factuelle des réponses.
Pour les éditeurs qui veulent comprendre comment les moteurs IA sélectionnent leurs sources, les critères de sélection de Perplexity sont les mieux documentés et servent de proxy pour comprendre les autres.
La question sous-jacente, c'est l'authenticité. Les LLM privilégient les sources multi-indépendantes, comme je le détaille dans l'analyse du contenu IA versus contenu humain et comment Google évalue maintenant cette distinction.
Le problème que personne ne résout encore#
Il manque un standard de mesure. Chaque outil utilise sa propre méthodologie, ses propres requêtes, ses propres intervalles. Comparer un SOV-AI mesuré par Otterly avec un score Waikay, c'est comparer un classement Semrush avec un DA Moz : les chiffres ne sont pas sur la même échelle.
J'ai eu une conversation avec un responsable marketing qui me montrait fièrement son "AI Score de 78" fourni par un outil. Je lui ai demandé 78 sur quoi, mesuré comment, sur quelles requêtes. Il n'en savait rien. Le score était une boîte noire. Google a son API pour mesurer les impressions de recherche, on sait exactement ce qu'on mesure. L'AI Brand Score est facturé au même prix mais sans transparence méthodologique.
Tant qu'il n'y aura pas de standard ouvert (comme le Core Web Vitals l'a fait pour la performance web), les chiffres absolus resteront peu fiables. Ce qui est fiable : les tendances relatives. Votre SOV-AI monte ou descend sur vos propres requêtes, mesuré avec la même méthodologie. C'est ça qui compte pour piloter.
Plan d'action : les 30 premiers jours#
Pour ceux qui partent de zéro, voici la séquence que je recommande.
Semaine 1 : audit manuel. 20 requêtes, trois LLM, un tableur. Documentez votre baseline de SOV-AI, BMR et CAS. Identifiez les erreurs factuelles les plus critiques.
Semaine 2 : corrections immédiates. Mettez à jour votre page Wikipedia (ou créez-la si elle n'existe pas). Corrigez votre balisage schema.org. Alignez les informations entre votre site, LinkedIn, Google Business Profile et Crunchbase.
Semaine 3-4 : stratégie de mentions tierces. Identifiez les 5 médias sectoriels les plus cités par Perplexity sur vos requêtes cibles. Proposez-leur du contenu (tribune, étude, interview). Visez la corroboration multi-sources, pas le volume. C'est aussi l'occasion de renforcer votre E-E-A-T et de prouver votre expertise auprès des moteurs modernes.
Mois 2 et suivants : suivi bimensuel. Relancez les 20 requêtes, comparez avec votre baseline. Ajustez. Si le budget le permet, passez à un outil automatisé pour gagner du temps.
Ce qui est certain : la part des recherches passant par les IA conversationnelles va continuer à croître. Les marques qui mesurent et optimisent leur visibilité IA maintenant construisent un avantage concurrentiel sur celles qui attendent. Et comme en SEO classique, rattraper un retard de visibilité prend beaucoup plus de temps que le construire.
Sources#
- Gartner, "Predicts 2026: By 2028, Organic Search Traffic Will Decrease 25 %" (gartner.com/en/newsroom/press-releases/2024-02-19-gartner-predicts-search-engine-volume-will-drop-25-percent-by-2026)
- Rand Fishkin, SparkToro, "2024 Zero-Click Search Study" (sparktoro.com/blog/2024-zero-click-search-study-for-every-1000-us-google-searches-only-374-clicks-go-to-the-open-web-in-the-eu-its-360/)
- Advanced Web Ranking, "AI Brand Visibility Insights" (advancedwebranking.com)





