Le SEO “classique” te pousse à penser positions, CTR, et bataille de dix liens bleus. Sauf qu’une partie du trafic est en train de glisser ailleurs. Quand Google te sort un AI Overview, quand un outil “moteur de réponse” synthétise, il ne “classe” pas ton article, il pioche dedans. Il cite une phrase, un chiffre, un tableau, une définition. Et si ton contenu n’est pas fait pour être pioché proprement, tu peux être très bon… et quand même disparaître.
Le GEO (Generative Engine Optimization), je le résume comme ça : arrêter de viser une place, commencer à viser une citation. Pas une citation au sens ego. Une citation au sens “on peut extraire un bloc, le comprendre vite, et le vérifier”. Et ça, bonne nouvelle, c’est très “dev” comme problème : structure, contrat, preuves, mise à jour, et mesure.
SEO vs GEO : le changement de cible (et pourquoi ça pique)
En SEO, tu optimises une page pour qu’un humain clique et lise. En GEO, tu optimises une page pour qu’un système puisse résumer sans trahir. La nuance est violente. Parce que la SERP te pardonne un peu le flou : tu peux convaincre avec un titre, une intro, deux captures. Une IA, elle, veut des unités de sens. Et si ton article est un long roman sans repères, elle doit deviner où sont la définition, la procédure, les conditions, les limites. Devine quoi : elle devine mal, ou elle cite quelqu’un d’autre.
Le GEO ne remplace pas le SEO. Il l’attaque par le côté. Ta page doit rester lisible et désirable pour un humain, mais elle doit aussi être “extractible”. Ça ressemble beaucoup à écrire une doc interne qui ne rend pas fou ton collègue : des blocs clairs, des termes stables, des chiffres datés, des avertissements explicites.
Sponsorisé par Le Scribouillard
Besoin de contenu optimisé SEO ?
Utilisez la meilleure plateforme française de création de contenu assistée par IA ! Et générez des articles pour moins de 1€ !
Une page « extractible » : découper le savoir en blocs qu’on peut citer
Quand je dis “blocs”, je ne parle pas de design. Je parle de structure sémantique. Un moteur de réponse cherche des segments qui répondent à une sous-question précise : une définition, une marche à suivre, un comparatif, une exception, un exemple. Si tout est noyé dans des paragraphes interminables, il va extraire un bout au hasard. Et tu te retrouves cité sur une demi-vérité, ou pas cité du tout.
Ce que je fais sur des contenus qui doivent performer dans ce nouveau contexte, c’est imposer une ossature répétable. Pas une check-list ennuyeuse, plutôt un “format” qui revient de page en page. Le cerveau humain adore ça. Les systèmes aussi.
| Bloc | À quoi ça sert pour le GEO | Piège courant |
|---|---|---|
| Définition courte | Donner une phrase citable, stable, sans blabla | Définition floue ou marketing |
| Réponse directe | Répondre en 3–5 phrases au vrai besoin | Enterrer la réponse au milieu |
| Étapes concrètes | Permettre une synthèse “procédure” sans inventer | Étapes implicites, dépendances non dites |
| Limites / cas tordus | Éviter la citation trompeuse, montrer la maturité | Promettre “ça marche toujours” |
| Exemple | Rendre la réponse exploitable, pas juste théorique | Exemple trop vague ou non reproductible |
Un détail qui change tout : écrire des sous-titres qui ont du sens tout seuls. Pas « Partie 2 » ou « À savoir ». Plutôt « Ce que Google peut citer (et ce qu’il ignore) » ou « Comment prouver un chiffre sans perdre le lecteur ». Tu aides le lecteur, mais tu aides aussi l’extraction.
Un template HTML simple qui se fait citer
Tu n’as pas besoin d’un framework. Tu as besoin d’un HTML propre et d’une hiérarchie qui ne ment pas. Voilà un squelette qui marche bien sur des pages “conseil” ou “guide d’exécution” :
<h1>GEO : être cité par les moteurs IA (sans tricher)</h1>
<p class="lede">
GEO = structurer ton contenu pour qu’un moteur de réponse puisse extraire
une définition, une procédure et des preuves (sources, dates, auteur).
</p>
<h2>Définition (citable)</h2>
<p><strong>Le GEO</strong> consiste à rendre une page “extractible” : des blocs courts et vérifiables
(définition, étapes, chiffres sourcés) que les moteurs IA peuvent citer fidèlement.</p>
<h2>Réponse directe</h2>
<p>Si tu veux être cité, donne une réponse courte, puis détaille. Mets les sources près des chiffres.
Ajoute une date de mise à jour visible, et un auteur identifié.</p>
<h2>Procédure</h2>
<ol>
<li>Écris la réponse en 5 phrases max</li>
<li>Ajoute des étapes opérationnelles</li>
<li>Ajoute limites + cas tordus</li>
<li>Source chaque chiffre</li>
</ol>
<h2>Limites et cas particuliers</h2>
<p>Explique quand ça ne marche pas. C’est souvent ça qui te fait citer.</p>Oui, il y a une liste numérotée ici. Je l’assume, parce qu’une procédure sans séquence lisible, c’est exactement le genre de truc qui se fait massacrer à l’extraction. Mais évite d’en faire partout. Si tu peux dire quelque chose en prose, dis-le en prose.
Crédibilité : si tu n’es pas vérifiable, tu n’es pas “citable”
Les réponses IA ont un problème de fond : elles peuvent sonner justes en étant fausses. Du coup, elles sur-pondèrent de plus en plus ce qui ressemble à de l’autorité vérifiable. Et sur ton site, l’autorité ne se décrète pas. Elle se montre. Très concrètement.
Premier réflexe : arrêter les chiffres sans date. Un « 40 % des gens font X » sans source, c’est juste une phrase de plus dans l’Internet. Si tu utilises un chiffre, colle-lui une source et une année. Si tu n’as pas de source solide, transforme le chiffre en observation qualitative, ou enlève-le. Ça fait moins “vendeur”, mais beaucoup plus “citable”.
Deuxième réflexe : rendre l’auteur réel. Un prénom + une photo, c’est sympa. Un auteur avec un rôle, une bio courte, et éventuellement une page auteur propre, c’est mieux. Et surtout, si tu peux ajouter un mini encadré “Pourquoi je sais ça” sans te prendre pour un gourou, fais-le. « J’ai déployé ça sur X sites », « je maintiens tel produit », « on a mesuré ça sur telle base ». Le ton compte : factuel, pas posture.
Troisième réflexe : utiliser des sources externes de façon intelligente. Pas une liste de liens “pour faire sérieux”. Plutôt des références placées là où elles justifient un point précis. Une source collée à un bloc citable, c’est exactement ce qu’un moteur de réponse aime reprendre.
Fraîcheur : une page non mise à jour finit par être “non citée”
La fraîcheur, ce n’est pas juste « mettre à jour de temps en temps ». C’est montrer que tu maintiens l’info. Les moteurs adorent les contenus qui affichent une date de mise à jour cohérente, et qui changent vraiment quand le sujet bouge. À l’inverse, le faux “Mis à jour hier” sur une page inchangée depuis 2022, c’est un excellent moyen de perdre en confiance.
Ce que je trouve le plus efficace, c’est un mini journal de modifications en bas d’article. Trois lignes suffisent. L’intérêt n’est pas marketing, il est opérationnel : tu te forces à expliciter ce qui a changé, et tu donnes un signal clair aux lecteurs… et aux systèmes qui évaluent la fraîcheur.
Côté technique, si tu publies un sitemap, un <lastmod> réaliste aide aussi. Réaliste veut dire “lié à un changement de contenu”, pas “touché par un cron qui republie tout”. Les astuces qui gonflent artificiellement la fraîcheur marchent rarement longtemps et laissent des traces.
Technique : ne te tire pas une balle dans le crawl
Le GEO n’excuse pas les basiques. Si ton contenu n’est pas accessible au crawl, personne ne te citera. Et oui, ça arrive encore : pages “guides” derrière des scripts, sections chargées au scroll, contenus visibles pour l’humain mais invisibles au HTML initial, ou robots.txt qui bloque des répertoires entiers “parce qu’on a copié une config”.
Je garde un standard simple. HTML serveur lisible, des liens en <a href>, des titres h2/h3 qui structurent vraiment, des performances correctes (pas besoin d’être parfait, mais si ton site met trois secondes à répondre, tu perds déjà des batailles), et une accessibilité minimale. Les moteurs de réponse mangent ce que ton serveur sert. Si ton serveur sert du vide et attend que le JS reconstruise le monde, tu compliques ton propre business.
Les données structurées peuvent aider, mais il faut les traiter comme un bonus, pas comme une baguette magique. Un schéma Article propre, un FAQPage quand il y a de vraies questions/réponses, un HowTo si tu as une procédure claire, ça peut donner des repères supplémentaires. Si tu fabriques une FAQ artificielle juste pour “mettre du schema”, tu crées surtout du contenu creux. Et ce contenu creux finit… non cité.
Un JSON-LD “propre” (et pas mythologique)
Un exemple basique de Article qui ne raconte pas n’importe quoi. L’important, c’est la cohérence entre ce que tu déclares et ce qui est visible sur la page.
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "GEO : arrêter de viser des positions, commencer à viser des citations",
"datePublished": "2026-03-13",
"dateModified": "2026-03-13",
"author": {
"@type": "Person",
"name": "devmy.fr"
},
"publisher": {
"@type": "Organization",
"name": "devmy.fr"
}
}Ne sur-déclare pas. Si tu n’as pas d’auteur identifié, ne fais pas semblant. Si tu modifies réellement l’article une fois par mois, mets une date de modification qui colle. La crédibilité, c’est beaucoup de petits contrats respectés.
Mesure : comment savoir si tu es cité (quand il n’y a pas de clic)
Le point frustrant du GEO, c’est la mesure. Une citation peut générer zéro clic. Donc si tu attends “le trafic” pour valider, tu risques de conclure que ça ne sert à rien… alors que tu es peut-être en train de gagner des parts de voix.
Pour l’instant, je traite la mesure GEO comme un empilement de signaux imparfaits. Search Console reste utile, pas parce qu’elle te dit « vous avez été cité », mais parce qu’elle te montre les requêtes qui déclenchent des impressions, et les pages qui prennent de la visibilité sans que les clics suivent. Ce décalage impressions/clics, sur certains types de requêtes, peut être un indice. Pas une preuve, un indice.
Ensuite, je regarde mes logs serveur. Certains outils IA ne passent pas par ton site (ils utilisent des index ou des caches), d’autres crawlers ont des user-agents identifiables, et certains navigateurs intégrés laissent des traces. Là aussi, ce n’est pas une vérité absolue, mais tu peux détecter des patterns et vérifier que tes pages “cibles” sont bien accessibles et crawlées correctement.
Enfin, il y a la mesure “humaine” qui marche étonnamment bien : monitoring de marque + monitoring de formulations. Si tu écris des définitions propres et que tu utilises des tournures stables, tu peux repérer des reprises. Pas pour crier au plagiat, juste pour savoir quels blocs se propagent. Et quand tu trouves une reprise, tu regardes ce qui a été repris exactement. C’est un retour produit, pas un drame.
Mon avis de dev : le GEO, c’est du contenu conçu comme une API
Le meilleur modèle mental que j’ai trouvé, c’est celui-là : ta page, c’est une API pour humains et machines. Une API sans contrat clair finit “consommée” de travers. Une page sans blocs clairs finit résumée de travers. Même logique, mêmes dégâts.
Donc oui, vise la citation. Mais pas “être cité coûte que coûte”. Vise la citation fidèle. Celle qui reprend ton point sans le déformer, parce que tu as fait l’effort de structurer, sourcer, dater, et assumer les limites. C’est moins sexy que “on a hacké l’algorithme”. C’est aussi beaucoup plus durable.