Analyse de example.com (6 186 URL)
Vous trouverez dans ce document les résultats de l'audit de la pagination (sous l'angle du référencement naturel), avec de nombreuses explications ainsi que des annexes contenant toutes les données.
Toutes les analyses qui découlent de cet audit doivent donc être considérées en fonction de l'état du site ce jour-là. Pour voir les conditions de l'analyse, cliquez ici. Voici les conditions de l'analyse :
Au total, 6 186 URL ont été crawlées.
Vous trouverez à la fin de ce rapport des explications techniques sur le fonctionnement de notre outil ainsi que des définitions des termes utilisés dans le jargon du référencement naturel (SEO).
Les données sont disponibles sous forme exhaustive dans des fichiers annexes au format Excel ainsi qu'au format TSV (Tab-separated values) que vous pouvez facilement ouvrir dans Excel ou tout autre tableur.
Vous pouvez télécharger l'ensemble de ces fichiers annexes dans un seul fichier au format ZIP en cliquant sur le bouton ci-dessous :
Cet audit a permis de faire une analyse très approfondie de la pagination et des éventuelles faiblesses qu'elle génère en termes de profondeur et de maillage interne.
Des algorithmes spécifiques ont été utilisés pour repérer la présence de pages LIP ("Lost In Pagination") et de pages avec Fake Depth. Voyez les explications ci-après.
Nous vous conseillons de corriger les problèmes indiqués (les erreurs, pas forcément tout de suite les avertissements) en les prenant dans l'ordre du rapport.
A partir du moment où une page catégorie doit lister beaucoup d'éléments (fiches produits, articles, annonces, discussions, etc.), il est parfois nécessaire d'utiliser la pagination. C'est loin d'être la meilleure technique de maillage interne, mais quand aucune autre solution n'est possible, il faut absolument suivre les recommandations des moteurs de recherche.
Remarque : même si Google dit ne plus tenir compte des balises rel=next/prev, ça reste une pratique recommandée, pour l'accessibilité mais aussi car d'autres moteurs (comme Bing) les exploitent.
Cet audit a consisté à identifier les endroits où de la pagination est utilisée puis à vérifier toutes les règles des bonnes pratiques. Dans la suite, les termes suivants sont utilisés :
En cas d'absence d'instructions rel=next/prev, les séries de pagination (et les pages 1) sont identifiées par l'analyse des URL de pagination (paramètre d'URL ou regex sur l'URL).
157 séries de pagination ont été trouvées, comprenant 1 030 URL de pagination en tout.
L'histogramme ci-dessous montre la répartition des pages de la pagination en fonction de leur rang.
Voici les règles que nous vous recommandons de suivre (considérées sinon comme des erreurs) :
Voici d'autres recommandations (considérées seulement comme des avertissements en cas de non respect) :
Erreurs | Avertissements | ||
---|---|---|---|
Règle 1 (crawl autorisé) | 15 | n/a | |
Règle 2 (indexation autorisée) | 47 | n/a | |
Règle 3 (code 200) | 0 | n/a | |
Règle 4 (URL canoniques des pages 2+ OK) | 19 | n/a | |
Règle 5 (liens follow vers pagination) | 30 | n/a | |
Reco 1 (link next/prev présentes) | n/a | 157 | |
Reco 2 (1 seule URL next) | n/a | 0 | |
Reco 3 (1 seule URL prev) | n/a | 0 | |
Reco 4 (ordre URL pagination) | n/a | 0 | |
Reco 5 (next/prev dans <link>, pas dans <a>) | n/a | 157 | |
Nb de séries | 157 | ||
Taux d'erreur | 31,3 % |
La liste des séries et des problèmes rencontrés est disponible dans l'annexe ci-dessous.
La liste des URL de pagination ne respectant pas 1 (ou plusieurs) règles ou recommandations est disponible dans l'annexe ci-dessous.
Certaines analyses présentées ci-après exploitent des données issues de Google Analytics ou Google Search Console afin d'étudier les performances des pages. Pour chaque page indexable, les métriques suivantes ont été récupérées sur l'ensemble de la période sélectionnée :
Aucun échantillonnage n'a été effectué par Google Analytics pour fournir ces données (explications). Si en allant dans votre compte Google Analytics vous n'obtenez pas les mêmes valeurs pour les mêmes conditions que cet audit, cela peut provenir de l'échantillonnage. En effet, la récupération des données est réalisée via une méthode basée sur l'API officielle qui réduit les cas où l'échantillonnage se produit.
À savoir : les performances des pages AMP ne sont actuellement pas prises en compte (seules celles de la version HTML le sont).
Attention, les instructions link next/prev n'ont pas toujours été identifiées (cf. tableau précédent) si bien que les analyses avancées ci-après peuvent être faussées. Nous vous recommandons de lancer à nouveau un audit après avoir ajouté ces instructions.
Généralement, les pages 2+ de la pagination génèrent très peu de visites : ce n'est pas étonnant mais autant mesurer leurs performances effectives (comparées à celles de la page 1).
Plus gênant encore, ces pages 2+ sont également très peu consultées par les utilisateurs. Ces derniers accèdent donc peu aux pages qui y sont listées, diminuant d'autant le chiffre d'affaires correspondant.
D'abord, la capacité des pages de pagination à générer du trafic SEO a été étudiée.
En moyenne, les pages 1 génèrent 18,3 fois plus de visites (organic) que les pages 2+.
L'histogramme ci-dessous montre la performance SEO des pages de pagination selon leur rang dans la série (pour comparer à chaque fois la page 1 et les pages 2+). La valeur correspond à la somme des sessions générées par les pages via le référencement naturel, selon Google Analytics.
Voici la même chose mais en calculant la moyenne plutôt que le total. La valeur correspond à la moyenne du nombre de sessions générées par les pages via le référencement naturel, selon Google Analytics. Attention, si pour certains rangs il y a peu de pages, la moyenne n'est pas forcément fiable.
Pour compléter cette analyse "orientée référencement", il est important d'étudier si les pages 2+ sont souvent consultées par les utilisateurs.
En moyenne, les pages 1 sont consultées 28,1 fois plus que les pages 2+. Dit autrement, la consultation des pages de la pagination se répartit ainsi : 96,6 % pour les pages 1 et 3,4 % pour les pages 2+.
L'histogramme ci-dessous montre le nombre moyen de vues des pages de pagination selon leur rang dans la série (pour comparer à chaque fois la page 1 et les pages 2+). La valeur correspond à la moyenne du nombre de vues des pages (toutes sources de trafic confondues), selon Google Analytics.
Voici la même chose mais en calculant la moyenne plutôt que le total. La valeur correspond à la moyenne du nombre de vues des pages (toutes sources de trafic confondues), selon Google Analytics. Attention, si pour certains rangs il y a peu de pages, la moyenne n'est pas forcément fiable.
Ces données sont disponibles dans l'annexe principale située en conclusion.
Comme pour toutes les pages, les pages de la pagination doivent être rapides afin d'offrir une bonne expérience utilisateur. Souvent, les pages de listing sont plus lentes, en raison de leur complexité, de leur longueur et parfois d'un manque de mise en cache (notamment sur les pages 2+).
Le temps de téléchargement a été mesuré sur l'ensemble des pages de pagination (aussi bien la page 1 que les pages 2+), en faisant la moyenne par type de pages. Il s'agit du temps de téléchargement du code HTML brut, sans aucune autre ressource ni exécution de Javascript ou CSS.
Voici les résultats obtenus :
Type de page | Temps de téléchargement moyen (ms) | Nb de pages |
---|---|---|
Pages 1 | 359 | 157 |
Pages 2+ | 774 | 873 |
Écart "Pages 2+" / "Pages 1" | 116 % |
En moyenne, les pages 2+ sont 2,2 fois plus lentes à télécharger que les pages 1.
Retrouvez le temps de téléchargement de chaque page dans l'annexe en conclusion.
Une page LIP (Lost In Pagination) est une page dont les liens entrants internes ne proviennent que des pages de pagination (page 2, page 3, etc.).
Les performances SEO des pages LIP sont très mauvaises car :
En outre, l'expérience utilisateur est mauvaise tout simplement car pour tomber sur ces pages, il faut se « perdre dans la pagination ». Vos internautes n'aiment pas cliquer sur les liens de la pagination, ça n'est pas efficace. S'ils vont peu dans ces pages, ils ne trouvent pas de liens vers les pages LIP, donc ils ne les consultent que rarement.
Pour en savoir plus, consultez le dossier "Pages LIP" sur WebRankInfo.
1 139 pages LIP ont été trouvées. Vous devriez améliorer le maillage interne, notamment leur faire des liens depuis d'autres pages que celles de la pagination.
Les performances comparées des pages LIP ont été analysées grâce au couplage avec Google Analytics et Google Search Console.
Le tableau ci-dessous présente les résultats (l'URL de départ et celles de profondeur 1 ont été exclues car elles ne peuvent pas être LIP et ne peuvent donc pas leur être comparées). Les valeurs correspondent à des moyennes ; en dernière colonne, un ratio de 2 indique que les pages non-LIP sont 2 fois meilleures que les pages LIP.
Métrique | Pages non-LIP | Pages LIP | Ratio |
---|---|---|---|
nb de sessions générées (organic) sur 30 jours selon Google Analytics | 2,3 | 0,3 | 8,2 |
nb de vues (toutes sources de trafic) sur 30 jours selon Google Analytics | 2,8 | 0,3 | 9,3 |
nb de clics sur 30 jours selon Google Search Console | 2,1 | 0,3 | 8,4 |
nb d'impressions sur 30 jours selon Google Search Console | 48,2 | 6,4 | 7,5 |
Le graphique ci-dessous montre la performances SEO des pages indexables du site (sauf les pages 2+) selon leur profondeur (calcul traditionnel). Une courbe correspond aux pages non-LIP, l'autre aux pages LIP. Pour chaque niveau de profondeur, la valeur correspond à la moyenne du nombre de sessions générées par les pages via le référencement naturel, selon Google Analytics.
Pour compléter, le graphique ci-dessous permet d'évaluer si les pages LIP sont autant ou moins consultées, à profondeur égale, que les non-LIP. La métrique utilisée est le nombre de vues de la page (toutes sources de trafic confondues), selon Google Analytics.
Suggestion : en utilisant les données dans l'annexe, vous pouvez affiner ces calculs en ne tenant compte que de certains types de pages (que vous devrez d'abord définir).
Comment éviter d'avoir des pages LIP ?
Un excellent moyen est d'éviter ou de limiter le recours à la pagination. Pour cela, quelques pistes :
Pour compléter, ou pour des petits sites ou des cas particuliers :
La liste des pages LIP est disponible dans l'annexe ci-dessous.
Les pages 2+ sont réputées pour avoir des mauvaises performances SEO et être peu consultées par les internautes. En plus de cela, ou par conséquent, les liens qu'elles font n'ont que peu de poids.
Que se passerait-il sur votre site si les internautes devaient trouver d'autres chemins (clics sur des liens) pour accéder aux pages de détails (fiches produits, articles, etc.) ? La profondeur de ces pages de détails serait supérieure à celle qui est calculée de façon traditionnelle, en tenant compte des liens issus des pages 2+.
Nous appelons cela Fake Depth ("fausse profondeur") et le calculons pour chaque page indexable (sauf les pages 2+ de la pagination) de la façon suivante :
Les pages pour lesquelles la profondeur "traditionnelle" n'est pas "avantagée" par la pagination ont Fake Depth = 0. Pour les autres, plus Fake Depth est une valeur élevée, plus leur profondeur "traditionnelle" est "artificiellement avantagée" par la pagination (et leurs performances sont généralement moins bonnes à cause d'un maillage interne sous-optimal).
Attention : si vous avez bloqué le crawl de certains cas de la pagination (ou tous), cette analyse peut être faussée.
92 pages Fake Depth ont été trouvées. Vous devriez améliorer le maillage interne, notamment leur faire des liens depuis d'autres pages que celles de la pagination, moins profondes.
L'histogramme ci-dessous montre le nombre de pages indexables trouvées sur le site ayant un Fake Depth > 0.
Le graphique ci-dessous montre la performances SEO des pages indexables du site (sauf les pages 2+) selon leur profondeur (calcul traditionnel), pour différentes valeurs de Fake Depth. Pour chaque niveau de profondeur, la valeur correspond à la moyenne du nombre de sessions générées par les pages via le référencement naturel, selon Google Analytics.
Pour compléter, le graphique ci-dessous permet d'évaluer si les pages avec du Fake Depth sont autant ou moins consultées, à profondeur égale, que celles qui n'en ont pas. La métrique utilisée est le nombre de vues de la page (toutes sources de trafic confondues), selon Google Analytics.
La liste des pages Fake Depth ainsi que leurs performances sont disponibles dans l'annexe ci-dessous.
Avoir toutes les données mesurées et calculées par RM Pagination sur les pages de la pagination est très précieux pour faire des analyses encore plus avancées.
Grâce au couplage avec Google Analytics et Google Search Console, les performances des pages (trafic généré en SEO, nombre de vues et performances des pages dans les SERP) ont pu être récupérées et agrégées avec les données du crawl et celles issues de l'analyse.
L'annexe ci-dessous liste toutes les URL crawlées avec pour chacune la raison de ce crawl (la plupart du temps il s'agit d'un lien mais ça peut aussi être une URL canonique, une instruction link rel=next/prev ou une redirection par exemple). Dit autrement, cette annexe liste tous les backlinks internes follow de toutes les URL étudiées, avec l'ancre de chacun.
Nous respectons le fichier robots.txt de la même façon que Google (avec donc quelques particularités par rapport au standard). Cela étant, dans le cas particulier de cet audit, les URL reconnues comme étant des URL de pagination sont crawlées même si elles sont spécifiquement interdites de crawl (le but étant d'analyser à 100% comment est implémentée la gestion de la pagination sur le site).
Nous tenons compte également :
Nous ne gérons pas :
L'outil crawle les URL :
Le repérage de la pagination est basé sur :
Voici les principaux termes utilisés dans le jargon du référencement naturel (SEO) et notamment dans ce rapport d'audit. Vous trouverez des liens vers des articles qui détaillent les notions correspondantes :