Aller au contenu

MCP et web agentique : le SEO face aux agents IA

Par Guillaume P.

7 min de lecture
Lien copié dans le presse-papiers
Guillaume P.

Votre site est-il prêt pour un visiteur qui ne clique jamais, ne scrolle pas, et prend ses décisions en 200 millisecondes ?

C''est la question que personne ne pose dans les briefs SEO. On optimise encore pour des humains qui tapent des mots-clés, lisent des snippets, comparent trois onglets. Pendant ce temps, les agents IA naviguent déjà le web de façon autonome. Et ils s''en fichent complètement de votre hero banner.

Le contexte : MCP, WebMCP et Chrome Auto Browse#

Trois couches techniques empilées, et un constat : le web devient un environnement où les machines interagissent avec les sites sans intervention humaine.

Le Model Context Protocol (MCP), lancé par Anthropic fin 2024 et adopté depuis par OpenAI, Google et Microsoft, est le standard qui permet aux LLM de se connecter à des outils externes. Concrètement, c''est le USB-C des agents IA : un connecteur universel pour lire des fichiers, exécuter des fonctions, interroger des bases de données. Fin 2025, Anthropic a transféré MCP à l''Agentic AI Foundation sous la Linux Foundation, avec plus de 97 millions de téléchargements mensuels du SDK. Le truc a dépassé le stade expérimental depuis un moment.

WebMCP, développé par Google et Microsoft sous l''égide du W3C, est la couche navigateur. Il permet aux sites web de publier un "contrat d''outils" : une liste structurée de ce que le site sait faire (rechercher, réserver, acheter, comparer). Les agents lisent ce contrat et interagissent directement, sans parser du HTML ni deviner la structure de la page. En preview Chrome depuis février 2026.

Et puis il y a Chrome Auto Browse, annoncé fin janvier 2026, propulsé par Gemini 3. Le navigateur devient lui-même un agent autonome. Il scrolle, clique, remplit des formulaires, compare des options. Google l''a lancé pour ses abonnés AI Pro et AI Ultra aux États-Unis. Avec 3 milliards d''utilisateurs Chrome, la base de déploiement est vertigineuse.

La thèse : le SEO classique est obsolète#

L''argument des évangélistes de l''agentic web est simple. Si un agent IA peut exécuter une tâche de bout en bout sans que l''utilisateur voie jamais votre site, alors le ranking Google n''a plus d''importance. Ce qui compte, c''est que l''agent vous sélectionne.

Et les chiffres leur donnent partiellement raison. Le trafic provenant d''agents IA a explosé de 1 200 % chez les retailers en un an. WebMCP réduit le "token overhead", le coût de traitement du contenu web par les agents, de 67,6 %. En pratique, un site compatible WebMCP devient plus lisible, plus rapide et donc plus attractif pour un agent qu''un site classique.

J''ai eu un client e-commerce en février qui me demandait pourquoi ses ventes augmentaient alors que son trafic organique baissait. En creusant les logs serveur et les données de conversion sur trois semaines, on a découvert que Perplexity Shopping et un agent Google renvoyaient des acheteurs directement sur ses pages produits via des données structurées bien renseignées, sans jamais passer par la SERP ni déclencher une seule impression dans Search Console. Le trafic n''apparaissait pas dans Google Analytics parce que le referrer était un agent, pas un moteur de recherche. La vente se faisait, le tracking ne suivait pas.

L''antithèse : les agents ont besoin du web#

Reste que les agents ne vivent pas dans le vide. Ils ont besoin de sources fiables, de données fraîches, de contenu à consommer. Un agent qui compare des CRM ne produit pas l''analyse : il l''extrait de vos pages, de vos APIs, de vos feeds produits. Si personne ne publie de contenu de qualité, l''agent n''a rien à mâcher.

Le SEO n''est pas mort, il change de client. Avant, vous écriviez pour un humain qui cherchait une réponse. Maintenant, vous écrivez aussi pour une machine qui exécute une tâche. La différence est opérationnelle, pas existentielle.

Et honnêtement, j''ai changé d''avis là-dessus en trois mois. En décembre, je pensais que le SEO classique allait tenir encore cinq ans tranquille. En voyant les données de janvier-février 2026, la montée de Chrome Auto Browse et l''adoption de MCP par tous les gros acteurs, j''ai réalisé que la bascule était déjà là. Pas dans deux ans. Maintenant.

Ce que ça change concrètement pour le SEO technique#

La réalité du terrain, c''est que la plupart des sites ne sont pas prêts.

Données structurées exhaustives#

Les agents consomment du schema.org, pas du HTML. Si vos pages produits n''ont pas de Product, Offer, AggregateRating et MerchantReturnPolicy correctement renseignés, vous êtes invisible pour un agent acheteur. On en parlait déjà pour l''agentic commerce, mais avec WebMCP la barre monte encore : les agents attendent désormais un "contrat d''outils" explicite, pas juste du balisage passif.

Contenu factuel et concis#

Un agent ne lit pas vos introductions de 300 mots. Il extrait des faits : prix, specs, disponibilité, comparatifs. Le contenu optimisé pour les agents ressemble davantage à une fiche technique qu''à un article de blog. Ça ne veut pas dire qu''il faut arrêter d''écrire pour les humains, ça veut dire qu''il faut avoir les deux couches : le contenu éditorial pour l''humain, les données structurées pour la machine.

C''est la même logique que celle qu''on applique pour être visible dans ChatGPT et Perplexity : répondre directement, structurer clairement, sourcer systématiquement.

Gestion des crawlers agentiques#

Les crawlers IA posent déjà un dilemme aux éditeurs. Avec les agents WebMCP, la question se complique. Un agent Chrome Auto Browse n''est pas un crawler au sens classique : il navigue comme un humain, avec un vrai navigateur, un vrai JavaScript engine. Votre robots.txt ne l''arrêtera pas. Votre rate limiting non plus, sauf à bloquer aussi vos vrais utilisateurs.

La distinction entre "bot" et "visiteur" devient floue. Et ça, c''est un problème d''infrastructure autant que de SEO.

Le vrai enjeu : qui contrôle la couche agentique#

Ce qui me préoccupe le plus dans cette évolution, ce n''est pas la technique. C''est la concentration du pouvoir. Google contrôle Chrome (3 milliards d''utilisateurs), Gemini (le moteur agentique), et co-développe WebMCP. Si demain les agents Google favorisent les sites compatibles WebMCP de Google, on a un nouveau monopole vertical. Le web ouvert devient un web intermédié par Google, encore plus qu''aujourd''hui.

MCP d''Anthropic est open-source et transféré à une fondation. WebMCP est sous W3C. Sur le papier, c''est ouvert. En pratique, l''implémentation dominante sera celle de Chrome. Et Chrome, c''est Google. On est dans une situation où les standards sont ouverts mais le marché est fermé. Ça rappelle le web mobile : les standards étaient ouverts, mais iOS et Android ont décidé de ce qui marchait vraiment.

Mon verdict#

Le web agentique n''est pas une hypothèse. C''est un fait en cours de déploiement. MCP connecte les LLM aux outils. WebMCP connecte les agents aux sites. Chrome Auto Browse met un agent dans le navigateur de 3 milliards de personnes.

Pour le SEO, la conséquence est directe : il faut optimiser sur deux fronts en même temps. Le front classique (contenu, E-E-A-T, maillage, technique) reste indispensable parce que les humains cherchent encore. Le front agentique (données structurées, APIs, compatibilité WebMCP) devient obligatoire parce que les machines achètent déjà.

Si vous ne deviez retenir qu''une chose : un site qui n''expose pas ses données de manière structurée et machine-readable sera invisible pour les agents IA en 2027. Pas dégradé dans les rankings. Invisible. L''équivalent numérique de ne pas avoir de site web en 2010.

Commencez par auditer vos données structurées. Maintenant.

Sources#

Lien copié dans le presse-papiers

À lire aussi