La plupart des conseils SEO pour la recherche IA ne sont encore que des slogans vagues. « Écrivez pour E-E-A-T. » « Soyez la réponse. » Des cadres utiles, mais vous ne pouvez pas opérationnaliser un slogan.
Ceci est le playbook opérationnel que nous utilisons pour faire citer nos pages par ChatGPT web search, Perplexity, Google AI Overviews et Bing Copilot. Ce n'est pas de la théorie. Le même playbook fonctionne sur ce site en ce moment.
AEO et GEO, définis clairement
Deux acronymes, souvent utilisés de manière lâche. Les définitions claires :
- AEO — Answer Engine Optimization. Faire en sorte que votre contenu soit cité comme réponse directe dans les surfaces réponse-d'abord (Google AI Overviews, featured snippets, assistants vocaux, résultats de recherche ChatGPT, citations Perplexity).
- GEO — Generative Engine Optimization. La catégorie plus large couvrant comment les systèmes d'IA générative récupèrent, résument et attribuent le crédit à votre contenu. AEO en est un sous-ensemble.
Les deux partagent une exigence commune : le moteur d'IA doit trouver votre contenu, l'analyser avec confiance, l'attribuer à une source crédible et le référencer à l'utilisateur. Chacune de ces étapes est un levier que vous pouvez actionner.
Pourquoi l'ancien playbook SEO ne suffit pas
Le SEO classique optimise pour une seule chose : un lien cliquable dans une SERP. La recherche AI optimise pour deux choses : faire entrer le contenu dans la fenêtre de contexte du modèle, et être cité quand le modèle génère la réponse. Ce sont des problèmes différents.
Exemples où les playbooks divergent :
- La densité de mots-clés n'aide pas un LLM. Les déclarations factuelles claires le font.
- Les longs préambules avant la réponse nuisent à la citation par l'IA. Le modèle TL;DR gagne.
- Les pages qui masquent le contenu derrière des onglets ou des accordéons subissent une extraction partielle. Le HTML plat avec des en-têtes sémantiques obtient une extraction complète.
- Le contenu générique réécrit à partir de concurrents perd. L'expérience propriétaire et les données spécifiques gagnent.
Le pipeline à cinq étapes
Le pipeline que nous exécutons pour chaque article publié sur ce site :
Étape 1 : Recherche avec Tavily
Tavily est une API de recherche conçue pour les LLM. Le même type d'API que n'importe quel agent IA utilise pour récupérer la vérité actuelle. Avant la rédaction, nous extrayons 5 à 10 sources récentes sur le sujet via le point de terminaison de recherche Tavily, avec `search_depth: "advanced"` pour les articles à enjeux élevés.
Pourquoi cela importe pour l'AEO : Les aperçus IA favorisent le contenu qui s'aligne avec le consensus actuel. La rédaction à partir des données d'entraînement seules produit du contenu obsolète. La rédaction à partir de sources récentes produit du contenu qui correspond à ce que l'IA « sait » déjà être vrai — et est cité pour cette raison.
Nous ne copions pas à partir des sources. Nous les utilisons pour vérifier les dates, les chiffres, les entités nommées et l'état actuel de tout sujet en évolution rapide avant la rédaction.
Étape 2 : Rédaction avec une voix propriétaire
Les moteurs IA sont entraînés à identifier et faire confiance à l'expérience propriétaire. Trois modèles qui méritent une citation :
- Première personne : « J'ai testé ceci pendant une semaine » surpasse « Ceci a été testé ».
- Données spécifiques : « LCP est passé de 2,8 s à 0,7 s » surpasse « les performances se sont améliorées considérablement ».
- Portée honnête : « Cela fonctionne pour X, pas pour Y » surpasse « solution complète pour tout le monde ».
Nous évitons le registre générique de l'IA. Des mots comme comprehensive, leverage, cutting-edge, robust, seamless, streamline, et unlock potential signalent la paternité de l'IA aux humains et aux moteurs qui notent le contenu. La liste complète d'interdictions que nous utilisons se trouve dans notre guide de style de contenu.
Étape 3 : Vérifier avec le détecteur Winston AI
Winston est un détecteur de contenu IA avec un point de terminaison API public à /v1/ai-content-detection. Nous passons chaque brouillon à travers avant la publication. Le score retourne un pourcentage de ressemblance humaine.
Notre seuil : tout ce qui est en dessous de 80 % de ressemblance humaine revient pour une autre passe. Le travail qui atteint 95+ est du contenu où la structure, la voix et le rythme se sont tous éloignés des modèles LLM par défaut. Ce score correspond à la façon dont les moteurs IA eux-mêmes classifient le contenu — le contenu qui se lit comme humain est cité à des taux plus élevés que le contenu qui se lit comme IA.
Sur ce site, les six derniers articles ont tous obtenu 100/100 de ressemblance humaine dans Winston. C'est un choix délibéré, pas un heureux hasard.
Étape 4 : Structurer avec schema
C'est là que la plupart des conseils AEO s'arrêtent à la surface. Les modèles de schema qui font vraiment la différence :
- Article / BlogPosting avec mainEntityOfPage, author Person avec sameAs, publisher Organization avec logo, datePublished, dateModified, keywords, articleSection, wordCount, isAccessibleForFree, image en tant que ImageObject avec width et height.
- FAQPage quand le corps a une structure Q&A. C'est le schema AEO à plus haut effet de levier. Source de citation directe pour AI Overview.
- Speakable avec cssSelector pointant vers votre TL;DR ou paragraphes d'introduction. Les moteurs Voice et AI Overview font apparaître le contenu speakable.
- HowTo lorsque le post est véritablement un guide étape par étape. Capture l'intention "comment faire X" dans la recherche IA.
- Schéma Service avec provider, areaServed, audience, Offer avec priceSpecification sur les pages commerciales.
- Entités liées via graphe @id. Lier votre Article à une Person et la Person à une Organization avec sameAs crée un graphe d'identité vérifiable que les moteurs utilisent réellement.
Nous émettons tout cela dynamiquement par route sur ce site. Le head statique contient uniquement le schéma au niveau de l'entité (Person, Organization, WebSite). Le schéma par page est injecté par JS en fonction de la route active.
Étape 5 : accessibilité du crawleur IA
Étape finale, souvent omise : s'assurer que les crawleurs IA peuvent réellement récupérer votre contenu.
- llms.txt à la racine : un fichier markdown concis listant vos meilleures URL avec descriptions. Les crawleurs IA le recherchent. Beaucoup de sites n'en ont toujours pas.
- Balise robots meta avec `max-snippet:-1, max-image-preview:large, max-video-preview:-1`. Supprime les limites de longueur d'extrait par défaut. Les extraits AI Overview deviennent plus longs lorsque c'est présent.
- Contenu rendu en JS : la plupart des crawleurs IA ne rendent pas JavaScript. Si votre hero, H1, ou canonical n'existe qu'après l'exécution de JS, les moteurs ne voient rien. Rendez côté serveur ou pré-rendez les éléments SEO critiques.
- Autorisez les user-agents ChatGPT-User, PerplexityBot, Google-Extended, ClaudeBot, anthropic-ai dans robots.txt. Certains sites les bloquent par défaut avec des règles de bot trop agressives.
Ce qui vous rend citable (par ordre d'impact)
D'après l'observation de dizaines de pages citées et de dizaines qui devraient l'être mais ne le sont pas, l'ordre de priorité :
- 1. Des affirmations factuelles spécifiques avec des chiffres, des dates et des entités nommées
- 2. Une structure de type FAQ avec des paires question-réponse directes
- 3. Une expérience de première main ("j'ai testé", "nous avons mesuré", "notre client")
- 4. La récence — dateModified au cours des 90 derniers jours surpasse le contenu plus ancien
- 5. Graphique d'entités liées (Person, Organization, sameAs)
- 6. Un TL;DR ou un résumé en haut de l'article
- 7. Un HTML sémantique propre avec un H1 unique et une hiérarchie appropriée des H2/H3
- 8. Un schéma Speakable signalant les passages citables
Ce qui tue les chances de citation
- Le contenu qui se lit comme une sortie LLM par défaut (verbeux, prudent, générique)
- Les longs préambules avant la réponse réelle
- Le contenu caché derrière des onglets, accordéons ou carrousels que les crawlers ne peuvent pas développer
- Les pages bourrées d'affiliés où 40 pour cent du contenu est constitué de fiches produits
- Les pages sans auteur, éditeur ou références clairs
- Un schéma qui est incorrect (JSON-LD cassé disqualifie silencieusement la page)
- Les sites qui bloquent les crawlers IA dans robots.txt puis se plaignent de ne pas être cités
Mesurer si le playbook fonctionne
Trois signaux à suivre :
- Direct : données de performance de Google Search Console, segmentées par type de requête. Les impressions AI Overview apparaissent sous des plages de positions spécifiques.
- Indirect : suivez le trafic de référence ChatGPT et Perplexity dans votre analytics. Le volume est faible mais croît rapidement.
- Audit-based : interrogez ChatGPT, Perplexity et Google avec vos requêtes cibles mensuellement. Notez quelles sources sont citées pour chacune. Suivez l'évolution semaine après semaine.
Des outils comme le endpoint AI mentions de DataForSEO et le ChatGPT scraper donnent un accès programmatique aux mêmes données à grande échelle.
Limites honnêtes
Deux choses à clarifier :
La recherche IA n'est pas encore une source de trafic primaire pour la plupart des sites. Le volume est réel et croissant, mais ne correspond pas encore à la recherche organique Google. Optimisez-la parce que la trajectoire est claire, pas parce qu'elle paie les factures aujourd'hui.
Les moteurs changent chaque semaine. Ce qui a obtenu des citations en février 2026 ne les obtiendra peut-être pas en novembre. Le pipeline ci-dessus est plus durable que n'importe quelle tactique spécifique parce qu'il se concentre sur les signaux (récence, structure, voix, identité) que tous les moteurs pondèrent, pas sur les particularités d'un seul moteur.
Ce que nous exécutons sur ce site
Concret, pour les curieux :
- Tavily Search API pour la recherche de pré-rédaction sur les sujets d'actualité rapide
- Winston AI detector v1/ai-content-detection sur chaque brouillon, avec un seuil de 80+ de ressemblance humaine
- FAL flux-dev pour les images héros, stockées comme des ressources Sanity
- Sanity headless CMS alimentant une application monopage rendue sur Netlify
- Schéma dynamique par route (Article, FAQPage, Speakable, HowTo, Service, BreadcrumbList) injecté par JS
- llms.txt à la racine, méta robots avec max-snippet:-1 et max-image-preview:large
- Graphe d'entités liées : Person avec sameAs vers LinkedIn/X/YouTube, Organization pour Seahawk Media en tant qu'éditeur
Si vous voulez voir le schéma en action, affichez la source sur n'importe quel article de ce site. Ou lisez WordPress vs Next.js in 2026 pour la pièce de comparaison que ce guide a produit en premier.WordPress vs Next.js in 2026for the comparison piece this playbook produced first.
L'essentiel
AEO et GEO ne sont pas magiques. Ils constituent une discipline de production de contenu plus un petit ensemble d'étapes d'accessibilité technique. Les équipes qui réussissent bien dans la recherche IA sont les mêmes équipes qui réussissent bien en SEO classique — elles ajoutent simplement trois choses : de la recherche récente, une voix qui ne semble pas être de l'IA, et un schéma qui permet aux moteurs d'analyser le contenu de manière claire.
Si vous souhaitez de l'aide pour opérationnaliser ceci sur votre site, réservez un appel de 30 minutes et nous examinerons votre stack, votre flux de contenu et les changements à plus grand impact.book a 30-minute calland we will walk through your stack, your content workflow, and where the highest-impact changes are.
Lectures connexes
→ L'ingénierie des prompts en 2026 : ce que c'est et ce qu'elle rapportePrompt engineering in 2026: what it is and what it pays
→ J'ai construit ce site Web alimenté par l'IA en 24 heuresI Built This AI Website in 24 Hours
→ WordPress vs Next.js en 2026 : ma comparaison honnêteWordPress vs Next.js in 2026: my honest comparison
→ WordPress headless en 2026 : le guide pratique completHeadless WordPress in 2026: the complete practical guide
