Tu ouvres le rapport Core Web Vitals dans Google Search Console. Sur Mobile, tout a l’air à peu près normal. Et sur Desktop, tu prends une claque visuelle : 0 URL. Zéro “good”, zéro “needs improvement”, parfois zéro partout… tout en ayant un graphe avec des variations. Forcément, tu te dis que ton site est en train de brûler.
Sauf que dans beaucoup de cas, ce “0” ne dit pas “ton site est nul”. Il dit “je n’ai pas assez de données terrain exploitables pour te classer des URLs côté Desktop”. Et c’est là que la panique commence, alors qu’il faut juste comprendre ce que GSC est réellement en train d’afficher.
Le point clé : le rapport CWV de GSC n’est pas un test, c’est du terrain (CrUX)
Le rapport Core Web Vitals de GSC est basé sur CrUX (Chrome UX Report), donc des données réelles d’utilisateurs qui naviguent avec Chrome (et qui ont activé la collecte). Ce n’est pas Lighthouse. Ce n’est pas un crawl. Ce n’est pas une “mesure de ton serveur” à l’instant T.
Et ça implique deux choses très concrètes, qu’on oublie trop souvent quand on fixe un écran rouge sur un KPI. D’abord, il faut du trafic (et pas juste “quelques visites”) pour que CrUX publie des stats stables. Ensuite, CrUX est agrégé sur une fenêtre glissante (typiquement 28 jours) avec ses règles de confidentialité et de seuils. Résultat : tu peux avoir un site parfaitement correct, mais pas assez “éligible” côté Desktop pour que GSC te sorte un nombre d’URLs classées.
Sponsorisé par Le Scribouillard
Besoin de contenu optimisé SEO ?
Utilisez la meilleure plateforme française de création de contenu assistée par IA ! Et générez des articles pour moins de 1€ !
Pourquoi tu peux avoir un graphe Desktop… et “0 URL” en haut du rapport
Le piège qui revient souvent (et qu’on voit très bien dans les retours terrain), c’est la confusion entre historique et état le plus récent. Le graphe affiche l’évolution dans le temps. Le compteur “X URL” en haut, lui, reflète surtout la situation sur la période la plus récente disponible dans le rapport.
Donc tu peux avoir eu, il y a quelques semaines, suffisamment de données Desktop pour construire des points dans le graphe. Puis, sur la dernière fenêtre de données, tu repasses sous le seuil (moins de sessions Desktop, trafic plus dispersé, changement de répartition des pages vues, etc.). Et là, le compteur retombe à zéro. Visuellement, c’est déroutant, mais ce n’est pas contradictoire.
Ajoute à ça que les données “terrain” ont un décalage. Tu ne vois pas “hier”. Tu vois un snapshot consolidé, avec une inertie. Autrement dit : faire un changement aujourd’hui et rafraîchir GSC demain n’a aucun sens. GSC n’est pas un outil de validation rapide, c’est un outil de tendance terrain.
Le vrai coupable, très souvent : Desktop n’a pas assez de volume (ou pas au bon endroit)
Sur pas mal de sites, Desktop est minoritaire. Parfois très minoritaire. Ou alors Desktop existe, mais sur des pages tellement variées que l’échantillon par URL devient trop petit. Et comme GSC CWV fonctionne par groupes d’URLs (regroupées par “problème”), tu peux te retrouver avec… rien à grouper de façon fiable. Donc rien à compter.
Ce n’est pas un “bug” de Search Console. C’est une conséquence du modèle CrUX. CrUX protège la vie privée et cherche de la stabilité statistique. Quand ça manque, il préfère ne rien dire plutôt que d’afficher des chiffres qui ressemblent à une vérité alors que c’est juste du bruit.
Ce qui rend le truc encore plus frustrant : tu peux très bien avoir de la donnée au niveau origin (tout le domaine), mais pas assez au niveau URL pour que GSC fasse ses clusters et t’affiche des “URLs affectées”. Selon les cas, tu te retrouves avec un rapport qui a l’air vide alors que ton site a bien des utilisateurs Desktop.
“Mobile OK, Desktop = 0” : ce que ça dit (et ce que ça ne dit pas)
Ce cas arrive tout le temps. Et non, ce n’est pas forcément que ton site est “optimisé mobile” mais “catastrophique desktop”. La plupart du temps, ça dit juste : CrUX a assez de signal côté Mobile, pas côté Desktop. Mobile est souvent plus volumique, plus homogène, et plus “mesurable” pour beaucoup de sites grand public.
À l’inverse, Desktop peut être une population plus étrange : machines de bureau fatiguées, réseaux d’entreprise, extensions, gros écrans qui déclenchent d’autres layouts, parcours plus longs, pages plus lourdes (parce qu’on sert parfois des assets différents). Donc oui, Desktop peut aussi être réellement moins bon. Mais le “0 URL” ne permet pas de conclure ça. C’est juste un indicateur que ce rapport précis n’a pas de matière exploitable sur la période.
Comment je lis ce rapport sans perdre 2 jours
Première étape, je me force à lire le rapport comme ce qu’il est : un thermomètre terrain, pas un outil de debug. Si Desktop est à zéro, je ne pars pas “optimiser” au hasard. Je cherche d’abord si c’est un problème de données ou un problème de perf.
Ensuite, je croise avec une source qui ne dépend pas du même affichage. Typiquement PageSpeed Insights (qui montre “Field data” quand elle existe) et surtout les données CrUX au niveau origin via l’API ou BigQuery. Parce que si CrUX me dit au niveau origin que Desktop est correct, mais que GSC n’affiche aucune URL, je sais que je suis probablement dans un cas “pas assez de granularité URL”. Et ça change complètement le plan d’action.
Enfin, je me rappelle un truc très simple : le compteur de GSC n’est pas ton backlog. Ce n’est pas une to-do list produit. C’est un signal. Ton backlog, tu le construis avec de la mesure actionnable et un tri par impact business (templates qui génèrent le CA, tunnels, pages d’atterrissage SEO qui comptent vraiment).
Aller plus loin : vérifier CrUX directement (API) au lieu de “deviner”
Quand je veux trancher vite, je passe par l’API CrUX. Ça répond à une question simple : “est-ce qu’il y a de la donnée terrain Desktop pour mon origin, et à quoi elle ressemble ?”. Si tu as un “0 URL” dans GSC mais que l’API te sort des distributions propres, tu sais déjà que tu n’es pas face à un site invisible. Tu es face à un rapport GSC qui n’a pas de quoi clusteriser au niveau URL.
# Exemple minimal avec l'API CrUX (origin-level)
# Remplace https://example.com et mets ta clé.
curl -s "https://chromeuxreport.googleapis.com/v1/records:queryRecord?key=API_KEY" \
-H "Content-Type: application/json" \
-d '{
"origin": "https://example.com",
"formFactor": "DESKTOP",
"metrics": ["largest_contentful_paint", "interaction_to_next_paint", "cumulative_layout_shift"]
}' | jqAttention, on ne compare pas ça à Lighthouse. Lighthouse, c’est du lab. CrUX, c’est du terrain. Les deux sont utiles, mais pas pour répondre aux mêmes questions. Lighthouse t’aide à corriger. CrUX t’aide à savoir si les corrections se voient chez des vrais gens.
OK, admettons que Desktop a bien un problème : quoi faire de concret ?
Si tu confirmes un vrai souci Desktop (via CrUX origin, RUM interne, ou une tendance claire sur des pages clés), je te conseille d’éviter la “perf au feeling”. Tu vas perdre du temps et tu vas optimiser des trucs qui font plaisir à Lighthouse mais ne changent rien sur le terrain.
Ce qui marche en pratique, c’est de ramener le problème à des templates et des parcours. LCP qui explose ? C’est souvent une image hero, un CSS bloquant, un TTFB pas net, ou un rendu qui attend du JS. INP qui déraille ? C’est très souvent du JS inutile, des handlers trop lourds, un framework qui hydrate trop, ou des composants qui se battent avec le thread principal. CLS qui bouge ? C’est presque toujours une histoire de dimensions non fixées, de fonts, ou d’injections tardives.
Et surtout, je mets une limite claire : si ton trafic Desktop est trop faible pour CrUX, tu ne gagneras pas “un badge vert GSC” en bricolant. Tu peux gagner une meilleure UX (ce qui est déjà très bien), mais GSC ne deviendra pas magiquement bavard. Dans ce cas, la meilleure décision produit, c’est souvent de mettre en place un RUM simple (même léger) sur les pages qui comptent, pour avoir une mesure stable et actionnable, indépendamment des seuils CrUX.
Mon avis (assez sec) : ne transforme pas “0 URL” en incident prod
Le rapport Core Web Vitals de GSC est utile. Mais mal lu, il est toxique. Le “0 URL sur Desktop” est un excellent déclencheur de panique, alors que c’est souvent juste un manque de signal ou un affichage basé sur la dernière fenêtre de données.
Donc oui, regarde-le. Mais décide tes actions ailleurs : sur tes templates, tes parcours, tes mesures terrain internes, et des comparaisons CrUX qui ont du sens. Le but, ce n’est pas d’avoir un compteur qui fait plaisir. Le but, c’est que ton site soit rapide chez des vrais utilisateurs. Le reste suivra… quand il y aura assez de données pour le prouver.