Aller au contenu
Consensus layer : pourquoi votre marque reste invisible dans les LLM

Consensus layer : pourquoi votre marque reste invisible dans les LLM

Par Guillaume P.

8 min de lecture
Lien copié dans le presse-papiers
Guillaume P.

Votre marque est en position un sur Google pour ses requêtes cibles. ChatGPT ne la mentionne pas. Perplexity non plus. Gemini, pareil. Ce n'est pas un bug de l'algorithme. C'est un problème de confiance, et les LLM n'ont pas les mêmes critères que Google pour l'accorder.

Le verdict d'abord#

Les modèles de langage ne rankent pas. Ils corroborent. Si plusieurs sources indépendantes décrivent votre marque de la même manière, le modèle assigne un niveau de confiance élevé et vous cite. Si vous n'existez que sur votre propre site et dans vos propres communiqués, vous n'existez pas dans la couche de consensus. C'est la thèse d'Adam Heitzman sur Search Engine Land en mars de cette année, et elle colle à ce que je vois en audit depuis janvier.

En clair : le ranking Google et la visibilité LLM sont deux jeux différents avec des règles différentes. Vous pouvez gagner l'un et perdre l'autre.

La mécanique du consensus layer#

Le terme "consensus layer" vient du monde crypto à la base. Dans le contexte des LLM, il désigne le mécanisme par lequel un modèle de langage construit sa confiance envers une entité (marque, produit, personne) via la corroboration multi-sources.

Concrètement, quand ChatGPT doit recommander un outil CRM, il ne va pas chercher qui est premier sur Google. Il évalue combien de sources distinctes mentionnent cet outil, dans quel contexte, avec quelle cohérence. Si Salesforce apparaît dans des articles de presse, des comparatifs indépendants, des forums, des podcasts transcrits et des études académiques, le modèle lui assigne une confiance forte. Si votre CRM n'apparaît que sur votre blog et dans deux articles sponsorisés, le modèle ne vous connaît tout simplement pas.

L'étude Ahrefs sur plus de soixante-quinze mille marques confirme ça avec des chiffres. La corrélation entre mentions web et visibilité dans les AI Overviews atteint un coefficient de 0,664. Les backlinks, eux, ne pèsent que 0,218. Les ancres de marque montent à 0,527. Le volume de recherche de marque arrive à 0,392. La hiérarchie est nette : les mentions brutes comptent plus que les liens, plus que le trafic de marque.

Il y a un effet de seuil qui m'a frappé dans ces données. Le troisième quartile se situe à quatorze mentions. Le quatrième démarre à cent soixante-neuf. Entre quatorze et cent soixante-neuf mentions, il ne se passe presque rien. Passé cent soixante-neuf, la visibilité explose. Ce n'est pas linéaire, c'est un escalier avec une marche géante.

L'impact sur le trafic organique#

J'ai un client e-commerce qui m'a contacté en février parce que son trafic organique fondait alors que ses positions étaient stables. En regardant les données Seer Interactive (étude sur plus de trois mille termes, quarante-deux organisations, plus de vingt-cinq millions d'impressions), j'ai trouvé l'explication.

Quand une AI Overview apparaît sur une requête et que la marque n'est pas citée dedans, le CTR organique chute de plus de soixante-cinq pour cent en glissement annuel. Citée dans l'AIO : la chute est quand même là, autour de quarante-neuf pour cent. Sans AIO du tout : moins quarante-six pour cent. Les AI Overviews cannibalisent le clic dans tous les cas, mais être cité dedans limite la casse.

Le retournement intéressant : les marques citées dans les AI Overviews voient leurs clics organiques augmenter de trente-cinq pour cent et leurs clics payants bondir de quatre-vingt-onze pour cent par rapport aux marques non citées. C'est un delta massif. Être dans l'AIO, c'est un multiplicateur ; ne pas y être, c'est une trappe.

Et ce n'est pas tout. Selon Semrush, un visiteur issu de la recherche IA vaut 4,4 fois plus qu'un visiteur organique classique. Quatre virgule quatre. Ce ratio m'a surpris la première fois que je l'ai lu. En y réfléchissant, ça se tient : quelqu'un qui arrive via une recommandation IA a déjà filtré, comparé, décidé. L'intention est qualifiée en amont par le modèle. Et dans quatre-vingt-dix pour cent des cas, les citations ChatGPT pointent vers des pages classées au-delà de la position vingt et un dans Google. Des pages que personne ne visite via la SERP classique.

Le problème de la cohérence (ou de son absence)#

Rand Fishkin a publié une étude SparkToro en janvier qui calme les ardeurs des vendeurs de "LLM visibility tools". Sur près de trois mille prompts soumis par six cents volontaires, les LLM ont produit des listes de recommandations différentes dans plus de quatre-vingt-dix-neuf pour cent des cas. Oui, plus de quatre-vingt-dix-neuf pour cent. Même requête, résultats différents à chaque fois.

Ça veut dire quoi en pratique ? Que mesurer sa "part de voix IA" sur un échantillon de dix prompts ne veut rien dire. La variance est énorme. Les marques dominantes conservent une visibilité entre cinquante-cinq et soixante-dix-sept pour cent dans des catégories étroites, mais en dehors de ces niches, c'est le far west.

Sur ce point, j'hésite encore à trancher. Est-ce que cette variance est un bug temporaire des modèles actuels, ou est-ce que c'est structurel ? Si c'est structurel, la notion même de "position" dans les LLM n'a pas de sens, et il faudrait raisonner en probabilité de citation plutôt qu'en ranking. Je penche pour la seconde option, mais je n'ai pas assez de données longitudinales pour l'affirmer.

La part de marché des moteurs IA#

Pour comprendre l'enjeu, il faut regarder qui pèse quoi. D'après First Page Sage en mars de cette année, ChatGPT capte environ soixante pour cent du marché de la recherche IA. Gemini est à quinze pour cent, Copilot à treize, Perplexity à six, Claude à cinq. ChatGPT domine, mais il est en déclin relatif : il était à plus de soixante-seize pour cent en janvier de l'année dernière.

La fragmentation s'accélère. Et chaque modèle a son propre consensus layer, ses propres biais de sources, sa propre logique de corroboration. Optimiser pour ChatGPT ne garantit rien sur Gemini. C'est comme si on devait refaire le SEO multi-moteurs des années 2000, sauf qu'au lieu de Yahoo et Altavista, c'est ChatGPT et Perplexity. Ceux qui ont vécu cette époque savent à quel point c'était pénible.

Ce que HBR recommande (et ce que j'en pense)#

La Harvard Business Review a publié un article en mars sur le sujet. Leur recommandation centrale : "engineering recall". L'idée est de publier des données originales, de nommer vos frameworks propriétaires, de créer du vocabulaire de marque que les LLM vont ingérer et restituer. Ils notent que les AI Overviews apparaissent sur soixante-dix-huit pour cent des requêtes produit à intention commerciale. Le champ de bataille est là.

Sur le principe, je suis d'accord. Publier des données originales, des études propriétaires, c'est le meilleur moyen de créer des mentions de marque dans des sources tierces qui vont les reprendre. C'est exactement la logique du thought leadership B2B poussée à son terme : votre contenu doit être citable, pas juste lisible.

Là où j'ai un désaccord, c'est sur le côté "nommez vos frameworks". J'ai vu trop de marques inventer des acronymes bidons ("La méthode SPARK", "Le modèle APEX") qui ne collent à aucune réalité opérationnelle. Si votre framework n'apporte pas une structure intellectuelle que des tiers vont spontanément réutiliser, c'est du branding creux. Les LLM ne sont pas dupes : ils corroborent. Si personne d'autre ne mentionne votre "méthode SPARK", elle n'entre pas dans le consensus layer.

La question de la mesure#

Les outils de mesure de visibilité IA poussent comme des champignons. Profound, Otterly.AI, GrowthOS, Semrush LLM Optimization, entre autres. Ils proposent des métriques comme l'AI Visibility Score, le Citation Share, l'Entity Recognition Accuracy.

La réalité du terrain : ces outils sont utiles pour détecter des tendances, pas pour piloter au pourcentage près. Vu la variance documentée par SparkToro, un score de visibilité ponctuel ne vaut pas grand-chose. Ce qui compte, c'est la trajectoire. Est-ce que votre nombre de mentions web augmente ? Est-ce que des sources indépendantes reprennent vos données ? Est-ce que les forums et les comparatifs vous citent sans que vous les ayez sollicités ?

C'est un travail de fond. Pas une optimisation technique qu'on fait une fois et qu'on oublie. C'est plus proche du LLMO que du SEO technique classique.

Mon diagnostic#

Le consensus layer n'est pas un concept marketing inventé pour vendre des outils. C'est le fonctionnement réel des LLM : corroboration multi-sources, effet de seuil, prime aux mentions indépendantes.

Si vous voulez que votre marque soit visible dans ChatGPT et Perplexity, arrêtez de penser en termes de mots-clés et de positions. Pensez en termes de mentions. Combien de sources indépendantes parlent de vous ? Dans quel contexte ? Avec quelle cohérence ?

Commencez par auditer votre présence hors-site. Pas vos backlinks ; vos mentions. Si vous en trouvez moins de vingt, vous êtes sous le seuil. Publiez des données originales. Faites-vous citer dans des études et des comparatifs indépendants. Arrêtez de compter vos positions Google comme unique boussole.

Le SEO ne meurt pas. Il se dédouble. Et la seconde couche ne pardonne pas l'anonymat.

Sources#

Lien copié dans le presse-papiers
En savoir plus

À lire aussi