Ceci est un exemple de rapport d'audit de la pagination et de son impact sur les performances SEO, généré par l'outil Audit RM Pagination de la plateforme My Ranking Metrics. Il s'agit d'un rapport d'audit réel qui a été anonymisé (certains liens ne sont pas actifs pour cette version).

Audit RM Pagination

Analyse de example.com (6 186 URL)

1 Introduction

1.1 Objectif de ce rapport

Vous trouverez dans ce document les résultats de l'audit de la pagination (sous l'angle du référencement naturel), avec de nombreuses explications ainsi que des annexes contenant toutes les données.

Toutes les analyses qui découlent de cet audit doivent donc être considérées en fonction de l'état du site ce jour-là. Pour voir les conditions de l'analyse, cliquez ici. Voici les conditions de l'analyse :

Au total, 6 186 URL ont été crawlées.

Vous trouverez à la fin de ce rapport des explications techniques sur le fonctionnement de notre outil ainsi que des définitions des termes utilisés dans le jargon du référencement naturel (SEO).

Les données sont disponibles sous forme exhaustive dans des fichiers annexes au format Excel ainsi qu'au format TSV (Tab-separated values) que vous pouvez facilement ouvrir dans Excel ou tout autre tableur.

Vous pouvez télécharger l'ensemble de ces fichiers annexes dans un seul fichier au format ZIP en cliquant sur le bouton ci-dessous :

Annexes

Les annexes sont disponibles dans le fichier ZIP annexes-example_com.zip.

1.2 Comment exploiter cet audit

Cet audit a permis de faire une analyse très approfondie de la pagination et des éventuelles faiblesses qu'elle génère en termes de profondeur et de maillage interne.

Des algorithmes spécifiques ont été utilisés pour repérer la présence de pages LIP ("Lost In Pagination") et de pages avec Fake Depth. Voyez les explications ci-après.

Nous vous conseillons de corriger les problèmes indiqués (les erreurs, pas forcément tout de suite les avertissements) en les prenant dans l'ordre du rapport.

2 Analyse de la pagination

A partir du moment où une page catégorie doit lister beaucoup d'éléments (fiches produits, articles, annonces, discussions, etc.), il est parfois nécessaire d'utiliser la pagination. C'est loin d'être la meilleure technique de maillage interne, mais quand aucune autre solution n'est possible, il faut absolument suivre les recommandations des moteurs de recherche.

Remarque : même si Google dit ne plus tenir compte des balises rel=next/prev, ça reste une pratique recommandée, pour l'accessibilité mais aussi car d'autres moteurs (comme Bing) les exploitent.

Cet audit a consisté à identifier les endroits où de la pagination est utilisée puis à vérifier toutes les règles des bonnes pratiques. Dans la suite, les termes suivants sont utilisés :

  • une série (de pagination) est un groupe de pages reliées entre elles par un système qui déclare leur ordre. La 1ère indique l'URL de la 2ème, puis les suivantes indiquent à chaque fois la précédente et la suivante, jusqu'à la dernière qui n'indique que la précédente.
  • une "page 1" est la 1ère page d'une série, reconnaissable par le fait qu'elle ne déclare que l'URL de la "page suivante" mais aucune "page précédente". Cette page joue un rôle particulier dans une série ; en général elle reçoit des bons liens internes depuis le reste du site.
  • les "pages 2+" sont les autres pages de la pagination, de la 2ème jusqu'à la dernière (incluse). Généralement ces pages ne reçoivent pas d'autres liens internes que depuis les autres pages de leur série.

En cas d'absence d'instructions rel=next/prev, les séries de pagination (et les pages 1) sont identifiées par l'analyse des URL de pagination (paramètre d'URL ou regex sur l'URL).

157 séries de pagination ont été trouvées, comprenant 1 030 URL de pagination en tout.

L'histogramme ci-dessous montre la répartition des pages de la pagination en fonction de leur rang.

Voici les règles que nous vous recommandons de suivre (considérées sinon comme des erreurs) :

  • Règle 1 (crawl autorisé) : les pages de la pagination doivent toutes être autorisées au crawl : elles ne doivent pas être bloquées dans le fichier robots.txt
  • Règle 2 (indexation autorisée) : les pages de la pagination doivent toutes être autorisées à l'indexation : il ne doit pas y avoir d'instruction noindex ou none dans la balise meta robots ou l'entête HTTP X-Robots-Tag
  • Règle 3 (code 200) : les pages de la pagination doivent toutes renvoyer un code 200
  • Règle 4 (URL canoniques des pages 2+ OK) : les pages 2+ de la pagination (autres que la 1) ne doivent pas indiquer la page 1 en tant que canonique
  • Règle 5 : chaque page de la pagination doit contenir des liens cliquables follow autorisés au crawl vers d'autres URL de la pagination (au moins la suivante et la précédente si elles existent), en plus des instructions link si celles-ci sont présentes

Voici d'autres recommandations (considérées seulement comme des avertissements en cas de non respect) :

  • Reco 1 (link next/prev présentes) : il est préférable de gérer la pagination avec des instructions link next/prev (déclarées dans l'entête HTML ou les entêtes HTTP)
  • Reco 2 (1 seule URL next) : les pages de la pagination ne doivent pas déclarer plusieurs URL différentes en tant que next
  • Reco 3 (1 seule URL prev) : les pages de la pagination ne doivent pas déclarer plusieurs URL différentes en tant que prev
  • Reco 4 (ordre URL pagination) : les pages de la pagination doivent toutes être bien ordonnées : sur la page N,
    • si l'instruction next est présente, elle indique toujours la page N+1
    • si l'instruction prev est présente, elle indique toujours la page N-1
  • Reco 5 (next/prev dans <link>, pas dans <a>) : la pagination ne doit pas utiliser d'attribut rel=next/prev dans des balises a (uniquement dans <link>)
Erreurs Avertissements
Règle 1 (crawl autorisé) 15 n/a
Règle 2 (indexation autorisée) 47 n/a
Règle 3 (code 200) 0 n/a
Règle 4 (URL canoniques des pages 2+ OK) 19 n/a
Règle 5 (liens follow vers pagination) 30 n/a
Reco 1 (link next/prev présentes) n/a 157
Reco 2 (1 seule URL next) n/a 0
Reco 3 (1 seule URL prev) n/a 0
Reco 4 (ordre URL pagination) n/a 0
Reco 5 (next/prev dans <link>, pas dans <a>) n/a 157
Nb de séries 157
Taux d'erreur 31,3 %

La liste des séries et des problèmes rencontrés est disponible dans l'annexe ci-dessous.

Annexe

Cliquez sur le bouton ci-dessous pour télécharger les données associées :

Le fichier annexe example_com_series.xlsx contient les données associées.

La liste des URL de pagination ne respectant pas 1 (ou plusieurs) règles ou recommandations est disponible dans l'annexe ci-dessous.

Annexe

Cliquez sur le bouton ci-dessous pour télécharger les données associées :

Le fichier annexe example_com_pages-pagination-erreurs.xlsx contient les données associées.

3 Analyse avancée

Certaines analyses présentées ci-après exploitent des données issues de Google Analytics ou Google Search Console afin d'étudier les performances des pages. Pour chaque page indexable, les métriques suivantes ont été récupérées sur l'ensemble de la période sélectionnée :

  • le nombre de sessions (= visites) générées via le référencement naturel par la page en tant que page de destination, selon Google Analytics
  • le nombre de vues de la page, toutes sources de trafic confondues, selon Google Analytics
  • le nombre de clics et d'impressions, le taux de clic moyen et la position moyenne de la page dans les résultats naturels de Google, selon Google Search Console

Aucun échantillonnage n'a été effectué par Google Analytics pour fournir ces données (explications). Si en allant dans votre compte Google Analytics vous n'obtenez pas les mêmes valeurs pour les mêmes conditions que cet audit, cela peut provenir de l'échantillonnage. En effet, la récupération des données est réalisée via une méthode basée sur l'API officielle qui réduit les cas où l'échantillonnage se produit.

À savoir : les performances des pages AMP ne sont actuellement pas prises en compte (seules celles de la version HTML le sont).

Attention, les instructions link next/prev n'ont pas toujours été identifiées (cf. tableau précédent) si bien que les analyses avancées ci-après peuvent être faussées. Nous vous recommandons de lancer à nouveau un audit après avoir ajouté ces instructions.

3.1 Performance des pages de la pagination

Généralement, les pages 2+ de la pagination génèrent très peu de visites : ce n'est pas étonnant mais autant mesurer leurs performances effectives (comparées à celles de la page 1).

Plus gênant encore, ces pages 2+ sont également très peu consultées par les utilisateurs. Ces derniers accèdent donc peu aux pages qui y sont listées, diminuant d'autant le chiffre d'affaires correspondant.

D'abord, la capacité des pages de pagination à générer du trafic SEO a été étudiée.

En moyenne, les pages 1 génèrent 18,3 fois plus de visites (organic) que les pages 2+.

L'histogramme ci-dessous montre la performance SEO des pages de pagination selon leur rang dans la série (pour comparer à chaque fois la page 1 et les pages 2+). La valeur correspond à la somme des sessions générées par les pages via le référencement naturel, selon Google Analytics.

Voici la même chose mais en calculant la moyenne plutôt que le total. La valeur correspond à la moyenne du nombre de sessions générées par les pages via le référencement naturel, selon Google Analytics. Attention, si pour certains rangs il y a peu de pages, la moyenne n'est pas forcément fiable.

Pour compléter cette analyse "orientée référencement", il est important d'étudier si les pages 2+ sont souvent consultées par les utilisateurs.

En moyenne, les pages 1 sont consultées 28,1 fois plus que les pages 2+. Dit autrement, la consultation des pages de la pagination se répartit ainsi : 96,6 % pour les pages 1 et 3,4 % pour les pages 2+.

L'histogramme ci-dessous montre le nombre moyen de vues des pages de pagination selon leur rang dans la série (pour comparer à chaque fois la page 1 et les pages 2+). La valeur correspond à la moyenne du nombre de vues des pages (toutes sources de trafic confondues), selon Google Analytics.

Voici la même chose mais en calculant la moyenne plutôt que le total. La valeur correspond à la moyenne du nombre de vues des pages (toutes sources de trafic confondues), selon Google Analytics. Attention, si pour certains rangs il y a peu de pages, la moyenne n'est pas forcément fiable.

Ces données sont disponibles dans l'annexe principale située en conclusion.

3.2 Temps de téléchargement

Comme pour toutes les pages, les pages de la pagination doivent être rapides afin d'offrir une bonne expérience utilisateur. Souvent, les pages de listing sont plus lentes, en raison de leur complexité, de leur longueur et parfois d'un manque de mise en cache (notamment sur les pages 2+).

Le temps de téléchargement a été mesuré sur l'ensemble des pages de pagination (aussi bien la page 1 que les pages 2+), en faisant la moyenne par type de pages. Il s'agit du temps de téléchargement du code HTML brut, sans aucune autre ressource ni exécution de Javascript ou CSS.

Voici les résultats obtenus :

Type de page Temps de téléchargement moyen (ms) Nb de pages
Pages 1 359 157
Pages 2+ 774 873
Écart "Pages 2+" / "Pages 1" 116 %

En moyenne, les pages 2+ sont 2,2 fois plus lentes à télécharger que les pages 1.

Retrouvez le temps de téléchargement de chaque page dans l'annexe en conclusion.

3.3 Pages LIP (Lost In Pagination)

Une page LIP (Lost In Pagination) est une page dont les liens entrants internes ne proviennent que des pages de pagination (page 2, page 3, etc.).

Les performances SEO des pages LIP sont très mauvaises car :

  • les liens qu'elles reçoivent sont issus de pages à faible PageRank. La page 1 de la pagination reçoit a priori des liens depuis plein d'autres pages, mais les pages 2+ de la pagination ne reçoivent généralement pas d'autres liens internes que ceux issus de leur série de pagination.
  • les liens qu'elles reçoivent ont généralement tout le temps la même ancre (anchor text, le texte cliquable). Il est pourtant plus efficace de varier les ancres de liens internes, mais pour ça il faut que les liens soient dans des contextes différents, pas uniquement dans la pagination.

En outre, l'expérience utilisateur est mauvaise tout simplement car pour tomber sur ces pages, il faut se « perdre dans la pagination ». Vos internautes n'aiment pas cliquer sur les liens de la pagination, ça n'est pas efficace. S'ils vont peu dans ces pages, ils ne trouvent pas de liens vers les pages LIP, donc ils ne les consultent que rarement.

Pour en savoir plus, consultez le dossier "Pages LIP" sur WebRankInfo.

1 139 pages LIP ont été trouvées. Vous devriez améliorer le maillage interne, notamment leur faire des liens depuis d'autres pages que celles de la pagination.

Les performances comparées des pages LIP ont été analysées grâce au couplage avec Google Analytics et Google Search Console.

Le tableau ci-dessous présente les résultats (l'URL de départ et celles de profondeur 1 ont été exclues car elles ne peuvent pas être LIP et ne peuvent donc pas leur être comparées). Les valeurs correspondent à des moyennes ; en dernière colonne, un ratio de 2 indique que les pages non-LIP sont 2 fois meilleures que les pages LIP.

Métrique Pages non-LIP Pages LIP Ratio
nb de sessions générées (organic) sur 30 jours selon Google Analytics 2,3 0,3 8,2
nb de vues (toutes sources de trafic) sur 30 jours selon Google Analytics 2,8 0,3 9,3
nb de clics sur 30 jours selon Google Search Console 2,1 0,3 8,4
nb d'impressions sur 30 jours selon Google Search Console 48,2 6,4 7,5

Le graphique ci-dessous montre la performances SEO des pages indexables du site (sauf les pages 2+) selon leur profondeur (calcul traditionnel). Une courbe correspond aux pages non-LIP, l'autre aux pages LIP. Pour chaque niveau de profondeur, la valeur correspond à la moyenne du nombre de sessions générées par les pages via le référencement naturel, selon Google Analytics.

Pour compléter, le graphique ci-dessous permet d'évaluer si les pages LIP sont autant ou moins consultées, à profondeur égale, que les non-LIP. La métrique utilisée est le nombre de vues de la page (toutes sources de trafic confondues), selon Google Analytics.

Suggestion : en utilisant les données dans l'annexe, vous pouvez affiner ces calculs en ne tenant compte que de certains types de pages (que vous devrez d'abord définir).

Comment éviter d'avoir des pages LIP ?

Un excellent moyen est d'éviter ou de limiter le recours à la pagination. Pour cela, quelques pistes :

  • augmentez le nombre d'éléments affichés par page de listing. Ne restez pas à 10 si vous avez des centaines (ou plus) d'éléments à faire découvrir... Attention à l'impact sur la vitesse de chargement (prévoyez un bon système de cache), pensez au lazy loading si vous avez des images.

  • créez des sous-catégories. C'est bien mieux que de la pagination, et ça vous aide à sortir dans Google sur plein de nouvelles requêtes stratégiques.
  • proposez un moyen d'affiner par des filtres, disponibles sous forme de liens. C'est comme un moteur à facettes, mais pas sous forme de formulaire (ni Javascript...)

Pour compléter, ou pour des petits sites ou des cas particuliers :

  1. repérez vos pages les plus stratégiques parmi celles repérées comme "LIP"
  2. pour chacune, trouvez 1 ou plusieurs autres pages traitant du même sujet, si possible avec une bonne popularité interne (pas trop profonde, avec plein de backlinks internes), et ajoutez dans le contenu principal un lien vers la page LIP concernée

La liste des pages LIP est disponible dans l'annexe ci-dessous.

Annexe

Cliquez sur le bouton ci-dessous pour télécharger les données associées :

Le fichier annexe example_com_pages-lip.xlsx contient les données associées.

3.4 Pages avec Fake Depth

Les pages 2+ sont réputées pour avoir des mauvaises performances SEO et être peu consultées par les internautes. En plus de cela, ou par conséquent, les liens qu'elles font n'ont que peu de poids.

Que se passerait-il sur votre site si les internautes devaient trouver d'autres chemins (clics sur des liens) pour accéder aux pages de détails (fiches produits, articles, etc.) ? La profondeur de ces pages de détails serait supérieure à celle qui est calculée de façon traditionnelle, en tenant compte des liens issus des pages 2+.

Nous appelons cela Fake Depth ("fausse profondeur") et le calculons pour chaque page indexable (sauf les pages 2+ de la pagination) de la façon suivante :

  • on calcule sa profondeur P1 de façon traditionnelle, en tenant compte des liens issus des pages 2+ (si jamais elle en reçoit)
  • on calcule la profondeur P2 qu'elle aurait si on ignorait tous les liens issus des pages 2+
  • Fake Depth = P2 - P1

Les pages pour lesquelles la profondeur "traditionnelle" n'est pas "avantagée" par la pagination ont Fake Depth = 0. Pour les autres, plus Fake Depth est une valeur élevée, plus leur profondeur "traditionnelle" est "artificiellement avantagée" par la pagination (et leurs performances sont généralement moins bonnes à cause d'un maillage interne sous-optimal).

Attention : si vous avez bloqué le crawl de certains cas de la pagination (ou tous), cette analyse peut être faussée.

92 pages Fake Depth ont été trouvées. Vous devriez améliorer le maillage interne, notamment leur faire des liens depuis d'autres pages que celles de la pagination, moins profondes.

L'histogramme ci-dessous montre le nombre de pages indexables trouvées sur le site ayant un Fake Depth > 0.

Le graphique ci-dessous montre la performances SEO des pages indexables du site (sauf les pages 2+) selon leur profondeur (calcul traditionnel), pour différentes valeurs de Fake Depth. Pour chaque niveau de profondeur, la valeur correspond à la moyenne du nombre de sessions générées par les pages via le référencement naturel, selon Google Analytics.

Pour compléter, le graphique ci-dessous permet d'évaluer si les pages avec du Fake Depth sont autant ou moins consultées, à profondeur égale, que celles qui n'en ont pas. La métrique utilisée est le nombre de vues de la page (toutes sources de trafic confondues), selon Google Analytics.

La liste des pages Fake Depth ainsi que leurs performances sont disponibles dans l'annexe ci-dessous.

Annexe

Cliquez sur le bouton ci-dessous pour télécharger les données associées :

Le fichier annexe example_com_fake-depth.xlsx contient les données associées.

4 Conclusion

Avoir toutes les données mesurées et calculées par RM Pagination sur les pages de la pagination est très précieux pour faire des analyses encore plus avancées.

Grâce au couplage avec Google Analytics et Google Search Console, les performances des pages (trafic généré en SEO, nombre de vues et performances des pages dans les SERP) ont pu être récupérées et agrégées avec les données du crawl et celles issues de l'analyse.

Annexe

Cliquez sur le bouton ci-dessous pour télécharger les données associées :

Le fichier annexe example_com_conclusion.xlsx contient les données associées.

L'annexe ci-dessous liste toutes les URL crawlées avec pour chacune la raison de ce crawl (la plupart du temps il s'agit d'un lien mais ça peut aussi être une URL canonique, une instruction link rel=next/prev ou une redirection par exemple). Dit autrement, cette annexe liste tous les backlinks internes follow de toutes les URL étudiées, avec l'ancre de chacun.

Annexe

Cliquez sur le bouton ci-dessous pour télécharger les données associées :

Le fichier annexe example_com_raisons-de-crawl.xlsx contient les données associées.

5 Explications complémentaires

5.1 Fonctionnement de notre outil RM Pagination

Nous respectons le fichier robots.txt de la même façon que Google (avec donc quelques particularités par rapport au standard). Cela étant, dans le cas particulier de cet audit, les URL reconnues comme étant des URL de pagination sont crawlées même si elles sont spécifiquement interdites de crawl (le but étant d'analyser à 100% comment est implémentée la gestion de la pagination sur le site).

Nous tenons compte également :

  • des balises meta robots
  • des directives passées dans l'entête HTTP (pour l'URL canonique ou pour les directives d'indexation et de suivi des liens)

Nous ne gérons pas :

  • les cookies
  • le javascript (et ajax ou équivalent)

L'outil crawle les URL :

  • indiquées dans les liens follow
  • indiquées dans les liens nofollow si l'URL de destination est considérée (avant même de la crawler) comme de la pagination
  • indiquées dans les URL canoniques
  • indiquées dans les balises link rel=next/prev
  • trouvées dans les redirections des URL déjà crawlées

Le repérage de la pagination est basé sur :

  • les instructions link rel=next/prev si elles sont sous forme de balise dans l'entête HTML ou directement dans l'entête HTTP
  • les paramètres d'URL de pagination si l'utilisateur en a déclaré dans les paramètres de lancement
  • les regex sur l'URL si l'utilisateur en a déclaré dans les paramètres de lancement

5.2 Signification des termes SEO

Voici les principaux termes utilisés dans le jargon du référencement naturel (SEO) et notamment dans ce rapport d'audit. Vous trouverez des liens vers des articles qui détaillent les notions correspondantes :

  • HTTP et HTTPS : HTTP est le protocole standard d'accès à des documents sur le web, tandis que HTTPS est la version sécurisée (transmission cryptée). Une URL en HTTP et la même en HTTPS sont considérées comme 2 URL distinctes.
  • Google Search Console : interface proposée par Google pour fournir au webmaster plusieurs informations concernant son site dans Google (problèmes de crawl ou d'indexation, pénalités, etc.). En savoir plus : site officiel, dossiers WebRankInfo. Bing propose la même chose (voir ici).
  • URL indexable : il s'agit d'une URL qui ne présente aucun obstacle technique pour que Google l'indexe. Il faut qu'elle ne soit pas bloquée au crawl (dans le fichier robots.txt) et qu'elle soit accessible (donc que le code HTTP renvoyé par le serveur soit 200) et qu'elle ne soit pas interdite d'indexation (via la balise meta robots noindex ou un entête HTTP X-Robots-Tag) et qu'elle ne contienne pas d'URL canonique différente. En général, une URL indexable est indexée par Google (mais ce rapport ne le vérifie pas). En savoir plus : dossiers WebRankInfo.
  • URL canonique : il s'agit de l'URL officielle d'une page. On l'utilise surtout dans le cas où un même contenu est disponible à plusieurs URL (dans ce cas pour ces différentes URL on indique quelle est l'URL officielle). En savoir plus : aide Google, dossiers WebRankInfo.
  • Fichier robots.txt : situé à la racine de chaque sous-domaine, il liste les éventuels endroits du site pour lesquels tous ou certains robots n'ont pas le droit de venir crawler. En savoir plus : aide Google, spécifications Google, dossiers WebRankInfo.
  • Balise meta robots : cette balise permet de restreindre les robots tels que Googlebot pour leur interdire par exemple d'indexer la page (noindex) ou de tenir compte des liens présents sur la page (nofollow). En savoir plus : aide Google, dossiers WebRankInfo.
  • En-tête HTTP X-Robots-Tag : pour les documents non HTML, il n'est pas possible d'utiliser une balise meta robots. On peut dans ce cas passer des instructions par l'entête HTTP. En savoir plus : aide Google, dossiers WebRankInfo.
  • Redirection (301 ou 302) : on parle de redirection d'une URL A vers une URL B quand, en cherchant à accéder à A, le serveur nous renvoie vers B. En référencement, il faut privilégier la redirection permanente (code HTTP 301) dans la majorité des cas. Il existe de nombreux moyens de gérer les redirections. En savoir plus : aide Google, dossiers WebRankInfo.
  • Sitemap : un fichier sitemap liste des URL que l'on souhaite faire crawler par les moteurs de recherche (en général pour qu'ils indexent les URL concernées). Ce n'est pas obligatoire mais ça peut aider à accélérer le crawl ou dans le suivi du référencement. En savoir plus : aide Google, dossiers WebRankInfo.