Pourquoi est-ce que ma timeline LinkedIn est saturée de posts annonçant des "balises Schema.org dédiées aux citations IA en mai 2026" ? Ce n'est pas un bug. C'est de la hype. Schema.org v30.0 est bien sortie en 2026, mais en mars, pas en mai. Et elle n'introduit aucun type LLMCitation, AIAnswer ou GenerativeSource. Aucun. Sous le capot, v30 fait autre chose, plus utile mais moins vendeur.
Voilà ce qui se passe réellement côté structured data en 2026, ce que Google a coupé en janvier, et pourquoi le JSON-LD reste un investissement rentable même quand les moteurs deviennent génératifs.
Schema.org v30.0 : ce que la release contient vraiment#
La v30.0 a été publiée le 19 mars 2026. Volumétrie officielle du vocabulaire à cette date : 823 Types, 1529 Properties, 19 Datatypes, 96 Enumerations, 535 Enumeration members. Pas de release notes en prose détaillée côté GitHub, les chiffres viennent de schema.org/version/30.0/.
Ce que la release ajoute concrètement.
Equivalence annotations. C'est probablement le changement le plus structurant. v30 ajoute des alignements explicites entre les classes Schema.org et les vocabulaires externes : GS1 (identifiants produits standardisés), Dublin Core (métadonnées documentaires), Open Graph (les balises que vous connaissez pour Facebook/LinkedIn). En clair, Schema.org devient officiellement une couche de traduction entre standards. Vous balisez une fois en JSON-LD, et le moteur sait à quel équivalent GS1 ou Dublin Core ça correspond. Pour un site catalogue produits ou un media qui pousse vers plusieurs plateformes, c'est du gain net.
EU Digital Product Passport (DPP). Des exemples ont été ajoutés pour le DPP européen, lié au règlement ESPR sur l'écoconception. Le DPP s'appuie sur les W3C Verifiable Credentials VCDM 2.0. Si vous bossez sur du e-commerce avec des produits soumis à l'ESPR (textile, électronique, batteries en tête), c'est à surveiller de près. La conformité réglementaire passera par cette voie.
Credential et Error classes. Deux nouvelles classes. Credential vise les certifications et attestations (diplômes, labels, badges vérifiables). Error permet de baliser des messages d'erreur de façon structurée, utile pour la doc technique et les pages d'aide.
jobDuration. Petite propriété ajoutée à JobPosting, pour préciser la durée d'un poste (CDD, mission, intérim). Détail mais bienvenu pour les job boards.
Pas un mot, dans tout ça, sur les citations LLM ou les réponses IA. Schema.org n'a pas inventé de balise magique pour faire apparaître votre contenu dans ChatGPT. Les posts qui prétendent le contraire vendent du vent.
Ce que Google a retiré en janvier 2026#
Janvier, en revanche, a été plus brutal. Google a coupé le support de plusieurs types pour ses rich results. La liste : Practice Problem, Dataset, Sitelinks Search Box, SpecialAnnouncement, Q&A.
Le marché a paniqué. John Mueller a clarifié sur Reddit début 2026, repris par Search Engine Journal, Search Engine Roundtable et Stan Ventures. Sa phrase exacte : "Google is not killing schema." Et derrière : "Understand that markup types come and go, but a precious few you should hold on to."
Concrètement, ces types restent valides dans le vocabulaire Schema.org. Ce que Google a retiré, c'est uniquement l'affichage enrichi dans la SERP pour ces types-là. Vous pouvez continuer à les baliser, ça ne nuit pas, mais n'attendez plus de rich snippet derrière.
Les types core que Mueller recommande de conserver et de soigner : Product, Organization, Article, Review/AggregateRating, Breadcrumb, Person, LocalBusiness, Event, FAQ, Video, Recipe. Si vous deviez auditer votre balisage cette semaine, c'est cette short list qui mérite l'effort.
Et les citations IA dans tout ça ?#
C'est la vraie question. Si Schema.org n'a pas sorti de balise LLM et que Google retire des types, est-ce que le structured data sert encore à quelque chose face à ChatGPT, Perplexity, Gemini ?
Réponse courte : oui, et probablement plus qu'avant.
Le JSON-LD reste le format standard que les moteurs (Google, Bing, mais aussi les crawlers de Perplexity et ChatGPT) parsent pour extraire des signaux structurés. Quand un LLM cite une source, il ne lit pas votre page comme un humain. Il consomme des chunks récupérés par un index, et il fait confiance aux entités balisées plus qu'à un paragraphe en prose ambigu. Un article correctement balisé avec Article, author, datePublished, Organization, c'est trois ou quatre faits que la machine n'a pas à reconstruire par inférence. Moins d'inférence = moins d'hallucination = plus de chances d'être cité tel quel.
Quelques chiffres circulent, à prendre avec une pince. Selon Stackmatix, une page avec schema markup a 2,5× plus de chances d'apparaître dans une réponse IA qu'une page sans. Selon Frase.io, le FAQ schema obtient un taux d'extraction 3,1× supérieur quand les questions matchent un prompt utilisateur. Ces chiffres viennent de blogs SEO commerciaux, pas d'études Google ou Bing officielles. Le sens va dans la bonne direction, mais ne les citez pas en réunion comme du Gartner. Pour creuser le mécanisme d'extraction côté AI Overviews, voir notre analyse Zero-click, AI Overviews et structured data : pourquoi le balisage devient critique en 2026.
AEO, GEO : où se positionne le balisage#
Petit point vocabulaire, parce que les acronymes s'empilent.
AEO (Answer Engine Optimization) : vise les apparitions en Featured Snippet et dans les réponses directes (incluses les réponses IA). Voir AEO, définition et leviers concrets.
GEO (Generative Engine Optimization) : surensemble qui englobe AEO et ajoute la spécificité des moteurs génératifs (ChatGPT, Gemini, Perplexity, Claude). Voir GEO, le guide complet.
Dans les deux cas, le structured data n'est pas le seul levier, mais c'est le levier le plus rentable en ratio effort/impact. Vous écrivez le JSON-LD une fois, il sert pour Google rich results, pour les LLM, et pour vos partenaires tiers qui consomment votre catalogue. Trois moteurs, une intégration.
Plan d'action concret pour 2026#
Si je devais auditer un site cette semaine, voici ce que je ferais.
-
Inventaire. Lancer un crawl, extraire tous les types Schema.org présents, repérer ceux qui sont dans la liste retirée de janvier (Practice Problem, Dataset, Sitelinks Search Box, SpecialAnnouncement, Q&A). Les laisser en place ne nuit pas, mais arrêter de compter dessus pour du rich snippet.
-
Consolidation core. Vérifier que chaque page-type a son schema canonique propre :
Productsur les fiches,Articlesur le blog,Organizationsur la home et le footer,Breadcrumbpartout,FAQquand pertinent (et seulement quand pertinent, pas en bourrage). Pour la mise en œuvre détaillée, voir Schema markup, le guide complet du balisage SEO. -
Validation. Passer chaque template par le Rich Results Test de Google et le Schema Markup Validator de Schema.org. Zéro erreur, zéro warning. C'est le minimum syndical.
-
Cohérence sémantique. Le balisage doit refléter le contenu visible. Si vous balisez
Reviewavec un rating 5 étoiles et que la page n'affiche aucune review, c'est du cloaking sémantique. Google et les LLM détectent et pénalisent. Pour le contexte e-commerce spécifiquement, voir Schema markup e-commerce : Product, Offer et MerchantReturnPolicy en 2026. -
Equivalences v30. Si vous touchez à du catalogue produits, regardez les nouveaux alignements GS1. Si vous êtes sur du produit physique en EU, surveillez l'évolution DPP.
La vraie question#
Mueller a une formule que je trouve juste : le balisage est une couche de traduction entre votre contenu et la machine. En 2026, "la machine" ne désigne plus seulement le crawler de Google. C'est aussi le RAG de Perplexity, l'index de ChatGPT, le scraper de Gemini. Tous lisent le JSON-LD. Tous récompensent la précision.
Le piège, c'est de courir après chaque nouvelle "balise miracle" annoncée sur LinkedIn. Il n'y en a pas. Ce qui marche, c'est un balisage propre, validé, cohérent avec le contenu, sur les types que Mueller a listés. Le reste, c'est du polish.
À vous de jouer.





