Site analysé : example.com
Très forte marge de progression potentielle !
Meilleure note possible : 100
Très forte marge de progression potentielle !
Meilleure note possible : 100
Ce document a pour objectif de vous présenter les résultats de l'audit SEO de votre site. Vous y trouverez une série de recommandations avec de nombreuses explications, ainsi que des annexes contenant la liste exhaustive de tous les éléments à améliorer sur votre site.
L'audit de votre site a porté sur 10 269 URL ainsi que sur 25 560 images distinctes (25 131 images sont hébergées sur example.com et 611 sur d'autres sites).
Toutes les analyses qui en découlent doivent donc être considérées en fonction de l'état du site ce jour-là. Pour voir les conditions de l'analyse, cliquez ici.Voici les conditions de l'analyse :
Vous trouverez à la fin de ce rapport des explications techniques sur le fonctionnement de notre outil ainsi que des définitions des termes utilisés dans le jargon du référencement naturel (SEO).
Les données sont disponibles sous forme exhaustive dans des fichiers annexes au format Excel ainsi qu'au format TSV (Tab-separated values) que vous pouvez facilement ouvrir dans Excel ou tout autre tableur.
Vous pouvez télécharger l'ensemble de ces fichiers annexes dans un seul fichier au format ZIP en cliquant sur le bouton ci-dessous :
Bien entendu, cet audit couvre tous les points essentiels d'un audit essentiellement technique : erreurs dans les liens (404...), URL canonique et balise meta robots noindex, temps de téléchargement, profondeur et maillage, balises title, meta description, H1-H6 ainsi que la taille du contenu dans la zone principale de la page. Le rapport explique tout et les annexes contiennent tout ce qu'il faut pour corriger.
Mais l'audit RM Tech permet d'être bien plus efficace grâce à des algorithmes exclusifs développés pour tirer le maximum du croisement entre les données de crawl et celles de Google Analytics et Search Console :
Voici ce que vous devriez faire, dans l'ordre :
Pour d'autres conseils sur les phases à enchaîner, consultez cet article.
Le score RM Tech pour cet audit est de 65,7 sur 100. Il représente le niveau d'optimisation du référencement naturel en ce qui concerne les éléments analysés sur le site (techniques, contenus, liens internes, qualité...).
Le score Pages Actives pour cet audit est de 21,4 sur 100. Il indique la performance globale des pages indexables trouvées par RM Tech (en fonction du nombre de sessions générées par chaque page selon Google Analytics, sur les 365 jours étudiés). Aucun échantillonnage n'a été effectué par Google Analytics.
Pour ces 2 scores, nous recommandons d'atteindre 95 (score en vert) ; entre 70 et 95 le score est en jaune et en-dessous de 70 il est en rouge.
D'après notre algorithme Pages Zombies d'identification des pages irrécupérables, l'indice zombie moyen est de 40,6. Voyez les détails ici.
Sur la période étudiée et avec les paramètres de crawl du site rappelés dans l'introduction, 1 599 785 sessions ont été générées par 5 331 pages (pages indexables autres que l'URL de départ) via le référencement naturel.
Grâce à notre algorithme exclusif combinant des dizaines de critères SEO (détaillés dans ce rapport) et des données disponibles dans Google Analytics, vous trouverez ci-après la liste des 100 pages les plus rentables à travailler en premier (pour l'amélioration de votre référencement naturel), avec pour chacune des indications précises sur le travail à accomplir.
D'après notre algorithme QualityRisk d'évaluation de la qualité, le risque moyen est de 38,3 sur l'ensemble des pages indexables (le pire possible étant 100).
En outre, 84,74 % des pages indexables sont de trop faible qualité (elles ont un QualityRisk >= 20).
Voyez les détails ici.
Élément analysé | Optimisation | Erreurs constatées sur les pages | |
---|---|---|---|
en pourcentage | en nombre de pages | ||
QualityRisk (évaluation de la qualité) | 84,74 % (3) | 6 538 |
Ce tableau regroupe en 8 familles les dizaines d'éléments audités sur votre site :
Élément analysé | Optimisation | Erreurs constatées sur les pages | |
---|---|---|---|
en pourcentage | en nombre de pages | ||
URL répondant en erreur | 1,65 % (1) | 169 | |
Indexabilité des pages HTML | 23,61 % (2) | 2 385 | |
Temps de téléchargement | 66,60 % (2) | 6 727 | |
Profondeur et maillage interne | 92,22 % (3) | 7 115 | |
Balise title | 0,43 % (3) | 33 | |
Balise meta description | 1,17 % (3) | 90 | |
Contenu des pages | 65,12 % (3) | 5 024 | |
Liens sortants externes | 48,63 % (4) | 2 996 |
Explications sur le code couleur :
Ce tableau de synthèse est basé uniquement sur ce que nous considérons être des erreurs, mais vous verrez que par endroits dans ce rapport nous listons également des avertissements : il s'agit de points à vérifier ou d'optimisations moins importantes à mettre en place. Les taux d'erreurs sont en gras (mais pas ceux concernant les avertissements).
Certaines cases de nos tableaux contiennent le libellé "n/a" ce qui signifie "non applicable" pour indiquer qu'il est normal que la case ne contienne pas de valeur.
Les résultats présentés ci-dessus (et dans le reste du rapport) sont exprimés en termes de taux d'erreur. Nous vous proposons une autre façon d'analyser les résultats, de façon très visuelle, en calculant des scores de performances (en gros, c'est l'inverse du taux d'erreur).
Pour chaque famille de critères, le score de performances d'un site est égal au nombre de pages (ou de liens) SANS erreur divisé par le nombre de pages (ou de liens) étudié(e)s, exprimé en pourcentage. Par exemple, concernant le temps de téléchargement des pages :
Le graphique en radar ci-dessous présente une synthèse des performances du site pour chaque famille de critères.
Voici la méthode suivie par RM Tech pour l'analyse du crawl et de l'indexabilité :
Vous trouverez dans la conclusion une annexe qui liste toutes les URL crawlées avec pour chacune la raison de ce crawl (la plupart du temps il s'agit d'un lien mais ça peut aussi être une URL canonique ou une redirection par exemple).
RM Tech respecte les directives indiquées dans les fichiers robots.txt (il doit y en avoir un pour chaque sous-domaine), concernant Googlebot (le crawler de Google).
Nous vous conseillons de mettre en ligne un fichier robots.txt pour chaque sous-domaine, même s'il est vide. Ceci évite de générer des erreurs 404 à chaque fois qu'un robot cherche à y accéder. C'est la raison pour laquelle nous indiquons le code HTTP du fichier robots.txt de chaque sous-domaine crawlé (ce code doit donc être 200).
Voici la répartition des URL bloquées par un fichier robots.txt et qui reçoivent pourtant au moins un lien interne follow (ou qui sont indiquées dans une URL canonique) :
Fichier robots.txt | Code HTTP | Nombre d'URL bloquées |
---|---|---|
https://www.example.com/robots.txt | 200 | 37 |
http://www.example.com/robots.txt | 200 | 0 |
Total | 37 |
Bien entendu, aucune URL stratégique pour votre business ne doit être bloquée par un fichier robots.txt ! Notre analyse et surtout l'annexe ci-dessous vous permettent de le vérifier.
A partir d'ici et pour tout le reste de ce rapport, nous ne tenons compte que des URL autorisées au crawl (non bloquées dans un fichier robots.txt).
Dans votre cas, nous avons pu analyser 100% des URL de votre site (trouvables par des liens depuis la page de départ). Le nombre d'URL crawlées a été de 10 269.
Voici la répartition selon les protocoles HTTP et HTTPS :
Protocole | Nb d'URL | % des URL crawlées |
---|---|---|
HTTP | 88 | 0,86 % |
HTTPS | 10 181 | 99,14 % |
Voici le bilan des codes HTTP rencontrés sur votre site (lisez leur signification en fin de rapport) :
Code HTTP | Nb d'URL en HTTP | Nb d'URL en HTTPS | Nb d'URL (HTTP et HTTPS) | % des URL crawlées |
---|---|---|---|---|
200 | 0 | 10 100 | 10 100 | 98,35 % |
301 | 88 | 80 | 168 | 1,64 % |
404 | 0 | 1 | 1 | 0,01 % |
Total erreurs 3xx | 88 | 80 | 168 | 1,64 % |
Total erreurs 4xx | 0 | 1 | 1 | 0,01 % |
Total erreurs | 88 | 81 | 169 | 1,65 % |
Remarque : même si les redirections ne sont pas à proprement parler des erreurs techniques, c'est pénalisant pour le référencement. C'est pourquoi nous les avons incluses dans le calcul des erreurs. Nous vous conseillons de faire des liens directs (directement vers la page finale) au lieu de passer par une ou des redirection(s) qui sont des étapes intermédiaires.
Voici ce que cela donne sous forme graphique :
Afin de vous permettre de localiser les erreurs 4xx et 5xx sur votre site, les fichiers annexes suivants contiennent les URL des pages contenant les liens en erreur :
Afin de vous permettre de localiser les erreurs 4xx et 5xx sur le site, le fichier annexe example_com-3_liens-vers-erreurs-4xx-5xx.xlsx contient les URL des pages contenant les liens en erreur.
Afin de vous permettre de localiser les erreurs 3xx sur votre site, les fichiers annexes suivants contiennent les URL des pages contenant les liens en erreur :
Afin de vous permettre de localiser les erreurs 3xx sur le site, le fichier annexe example_com-3_liens-vers-erreurs-3xx.xlsx contient les URL des pages contenant les liens en erreur.
Voici la liste des types MIME (lisez leur signification en fin de rapport) rencontrés pour les pages répondant correctement (code HTTP 200) :
Type MIME | Nb d'URL | % des URL crawlées en code 200 |
---|---|---|
text/html | 10 100 | 100 % |
Le référencement naturel se travaille essentiellement avec les pages HTML. Nous avons donc regroupé dans un fichier TSV les principales informations disponibles pour l'ensemble de vos pages HTML crawlées sans erreur (code HTTP 200) :
Le référencement naturel se travaillant essentiellement pour les pages HTML, notre analyse porte ici exclusivement sur les pages HTML.
Nous souhaitons étudier l'indexabilité de vos pages, c'est-à-dire la possibilité qu'elles soient indexées. On parle donc de pages « indexables ».
Les pages HTML indexables sont toutes celles :
Voici le décompte pour votre site :
Nb d'URL | % des URL HTML code 200 | |
---|---|---|
Pages HTML avec code HTTP 200 (A) | 10 100 | |
Dont pages interdites d'indexation | 2 385 | 23,61 % |
Dont pages avec URL canonique différente de l'URL crawlée | 0 | 0 % |
Nb total de pages non-indexables (B) | 2 385 | 23,61 % |
Nombre de pages HTML indexables (A - B) | 7 715 | 76,39 % |
Sauf cas particuliers dont vous connaissez bien l'existence sur votre propre site, le pourcentage de pages indexables devrait être élevé (proche de 100%).
En effet, il n'est pas efficace de laisser de nombreuses pages se faire crawler alors que vous exigez qu'elles ne soient pas indexées.
Dans votre cas, nous avons identifié 2 385 pages HTML interdites d'indexation représentant 23,61 % des pages HTML en code 200. Nous vous conseillons de vérifier si c'est normal d'interdire l'indexation de ces pages. Vous trouverez la liste des URL concernées dans les annexes.
Afin de vous permettre de localiser les erreurs liées à une directive noindex (balise meta ou X-Robots-Tag) sur votre site, les fichiers annexes suivants contiennent les URL des pages contenant les liens en erreur :
Afin de vous permettre de localiser les erreurs liées à une directive noindex (balise meta ou X-Robots-Tag) sur le site, le fichier annexe example_com-6_liens-vers-noindex.xlsx contient les URL des pages contenant les liens en erreur.
Plus vos pages mettent de temps à être téléchargées, plus c'est pénalisant :
Nous vous conseillons donc d'optimiser la conception de votre site, le contenu de vos pages ainsi que votre serveur d'hébergement afin d'avoir des pages qui se téléchargent rapidement. Dans cette partie, nous étudions le temps de téléchargement de chaque page HTML répondant sans erreur (code HTTP 200). Selon notre expérience, il faut que chaque page soit téléchargée en 600 ms maximum.
Voici les résultats de notre analyse :
Nb d'URL | % des URL HTML code 200 | |
---|---|---|
Pages trop lentes (> 600 ms) | 6 722 | 66,60 % |
dont : pages vraiment trop lentes (> 1000 ms) | 4 548 | 45,03 % |
Nb de pages HTML code 200 | 10 100 | |
Taux d'erreur | 66,60 % |
Remarque : il ne s'agit pas ici du temps de chargement complet de la page, puisque nous ignorons tous les fichiers externes pour ce calcul (Javascript, CSS, images, etc.). Il s'agit du temps mis par le serveur pour répondre à la requête, générer la page HTML et la télécharger. C'est donc le même principe que le temps indiqué dans Google Search Console (ex Webmaster Tools) rubrique Exploration > Statistiques sur l'exploration > Temps de téléchargement d'une page (en millisecondes). Cependant, notre calcul ne tient compte que des fichiers HTML alors que les données fournies par la Search Console incluent également les CSS, images, PDF et autres documents crawlés par Googlebot.
En complément du temps de téléchargement de la page (code HTML), le poids et les dimensions de vos images ont été étudiés dans l'analyse des images ci-après.
Voici la répartition par tranches de 200 ms (pour les pages HTML code 200) :
Temps de téléchargement (ms) | Nb de pages | Pourcentage des pages |
---|---|---|
de 0 ms à 199 ms | 1 544 | 15,29 % |
de 200 ms à 399 ms | 974 | 9,64 % |
de 400 ms à 599 ms | 855 | 8,47 % |
de 600 ms à 799 ms | 901 | 8,92 % |
de 800 ms à 999 ms | 1 278 | 12,65 % |
de 1000 ms à 1199 ms | 1 644 | 16,28 % |
de 1200 ms à 1399 ms | 792 | 7,84 % |
de 1400 ms à 1599 ms | 465 | 4,60 % |
de 1600 ms à 1799 ms | 324 | 3,21 % |
de 1800 ms à 1999 ms | 188 | 1,86 % |
2000 ms ou + | 1135 | 11,24 % |
Voici ce que cela donne sous forme graphique :
En plus du temps de téléchargement d'une page, il est intéressant d'étudier aussi le poids du code HTML brut (en Ko). Attention, ceci n'inclut aucune ressource de la page : ni les images, ni les javascript, CSS et autres.
Même si ce n'est pas toujours problématique, il est déconseillé d'avoir un poids trop important. Google crawle des documents très volumineux (plusieurs Mo) mais Bing semble s'arrêter autour de 700 Ko (ce qui est déjà très gros).
C'est également la limite utilisée dans cet audit, si bien que si certaines pages dépassent ce seuil, une partie seulement de leur contenu est prise en compte. Dans ce cas, il est possible que des liens présents dans la page (vers d'autres pages internes) ne soient pas pris en compte par cet audit.
L'annexe ci-dessous indique le poids du code HTML brut de chaque page, ainsi qu'un indicateur qui précise s'il dépasse 700 Ko.
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages dont le poids du code HTML brut dépasse 700 Ko | n/a | 0 | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0 % |
Pour qu'une page soit efficace en référencement naturel, il faut éviter qu'elle soit trop profonde dans le site, la profondeur étant mesurée par le nombre de clics nécessaires (sur des balises <a href>) pour l'atteindre depuis la page d'accueil.
Dans votre cas, notre algorithme a évalué que la profondeur maximale recommandée est de 4. Concrètement, cela signifie que nous conseillons que la majorité des URL soit à une profondeur inférieure ou égale à 4. Plus vous aurez d'URL situées à des profondeurs supérieures, plus vous aurez des problèmes de crawl, d'indexation et même de positionnement.
Remarque importante : attention, nous ne conseillons pas de réduire artificiellement la profondeur des pages uniquement pour ne pas dépasser la profondeur recommandée. Nous conseillons de privilégier les liens utiles à l'internaute, c'est-à-dire situés à des endroits faciles à identifier, entre des pages de thématique proche. Par exemple, c'est une mauvaise solution que de mettre des liens vers toutes les pages du site dans une page plan du site, elle-même reliée depuis le pied de page. Il n'est pas toujours possible ou facile d'éviter que certaines pages soient trop profondes, par contre il faut s'assurer que les pages stratégiques sont très faciles d'accès (profondeur 1 si possible).
L'étude a porté sur les pages HTML indexables.
Voici les résultats selon les niveaux :
Profondeur | Nb de pages | Nb cumulé de pages | Pourcentage des pages | Pourcentage cumulé |
---|---|---|---|---|
0 | 1 | 1 | 0,01 % | 0,01 % |
1 | 34 | 35 | 0,44 % | 0,45 % |
2 | 96 | 131 | 1,24 % | 1,70 % |
3 | 437 | 568 | 5,66 % | 7,36 % |
4 | 643 | 1 211 | 8,33 % | 15,70 % |
5 | 822 | 2 033 | 10,65 % | 26,35 % |
6 | 1 090 | 3 123 | 14,13 % | 40,48 % |
7 | 809 | 3 932 | 10,49 % | 50,97 % |
8 | 468 | 4 400 | 6,07 % | 57,03 % |
9 | 366 | 4 766 | 4,74 % | 61,78 % |
10 | 282 | 5 048 | 3,66 % | 65,43 % |
11 et + | 2 667 | 7 715 | 34,57 % | 100 % |
Dans votre cas, nous avons identifié 6 504 pages trop profondes, soit un taux d'erreur de 84,30 %. Vous devriez corriger ceci car les pages trop profondes sont plus difficilement consultées par les internautes et ont des moins bonnes performances en termes de référencement. Cette erreur peut s'expliquer par une mauvaise structure du site et/ou un mauvais maillage interne.
Le graphique ci-dessous reprend les éléments du tableau précédent :
Le graphique ci-dessous montre le pourcentage cumulé :
Pour qu'une page soit efficace en référencement naturel, il faut qu'elle reçoive des liens (on appelle ça des backlinks ou liens entrants). Ils peuvent venir d'autres pages du site (backlinks internes) ou pas (backlinks externes).
Le minimum est d'avoir 1 backlink interne (sinon comment Google l'indexerait ? avec les sitemaps ce n'est pas assez efficace pour un bon positionnement Google). Mais c'est tout de même préférable d'en avoir plusieurs, surtout pour les pages stratégiques. Bien sûr, cela dépend de la taille du site, mais d'après notre expérience il faut éviter d'avoir très peu de backlinks internes.
Toujours concernant les backlinks internes, il est intéressant d'étudier aussi les ancres de liens (c'est-à-dire le texte cliquable qui mène à la page, ou bien l'attribut ALT dans le cas d'un lien sur une image). Là aussi, il est préférable d'éviter d'avoir toujours exactement le même texte dans les liens qui pointent vers une page donnée. En variant les ancres de liens, vous rendez les choses plus naturelles ; en plus, vous optimisez pour la longue traîne car la page de destination sera mieux positionnée sur un plus grand nombre de requêtes.
Au sujet des ancres de liens, évitez les ancres vides : il s'agit souvent de liens placés sur des images sans attribut ALT, mais parfois aussi de liens texte vide. C'est déconseillé car cela ne permet pas d'optimiser le référencement de la page recevant le lien.
Remarques importantes :
Nous avons étudié les pages qui reçoivent trop peu de backlinks internes ou qui ont trop peu de variété dans les ancres de liens internes, ou qui ont des ancres vides (liens follow uniquement).
Pour savoir en détail comment nous identifions et comptons les liens, cliquez ici. L'étude a porté sur les pages HTML indexables. Vous trouverez dans la conclusion une annexe qui liste tous les backlinks internes follow de toutes les URL étudiées, avec l'ancre de chacun. Quand une page fait plusieurs liens vers la même page de destination, tous les liens sont listés, même si seul le premier est pris en compte dans l'audit.
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages avec seulement 1 backlink interne | 137 | n/a | |
Nb de pages avec seulement 2 backlinks internes | n/a | 38 | |
Nb de pages avec toujours la même ancre (backlinks internes) | 4 192 | n/a | |
Nb de pages avec seulement 2 ancres distinctes (backlinks internes) | n/a | 1 836 | |
Nb de pages avec un ou des backlinks internes à ancre vide | n/a | 10 099 | |
Nb total d'erreurs et d'avertissements | 4 192 | 1 901 | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 54,34 % | 24,64 % |
Le graphique ci-dessous illustre l'analyse du nombre de backlinks par page :
Le graphique ci-dessous illustre l'analyse du nombre d'ancres distinctes par page :
Pour optimiser votre référencement, vos pages ne doivent pas être trop profondes (nombre de clics depuis la page d'accueil) et leur maillage doit être efficace (plusieurs liens entrants avec des ancres variées, non vides).
Pour cette conclusion, nous tenons compte uniquement des erreurs (pas des avertissements).
Voici les résultats de notre analyse :
Erreurs | ||
---|---|---|
Nb de pages trop profondes ou avec un maillage interne insuffisant | 7 115 | |
Nb de pages indexables | 7 715 | |
Taux d'erreur | 92,22 % |
Cliquez sur le bouton ci-dessous pour télécharger les statistiques sur la profondeur, le nombre de backlinks internes et d'ancres distinctes :
Le fichier annexe example_com_05-3_profondeur-maillage.xlsx contient les statistiques sur la profondeur, le nombre de backlinks internes et d'ancres distinctes.
Afin de vous permettre d'étudier les ancres de vos liens internes, le fichier annexe suivant contient pour chaque URL la liste des ancres avec pour chaque ancre le nombre de backlinks internes ainsi qu'un exemple d'URL de backlink interne :
Le fichier annexe example_com_05-3_ancres-internes.xlsx contient pour chaque URL la liste des ancres avec pour chaque ancre le nombre de backlinks internes ainsi qu'un exemple d'URL de backlink interne.
Afin de vous permettre d'étudier les ancres vides parmi vos liens internes, le fichier annexe suivant contient la liste de tous ces liens, avec l'URL source et l'URL destination :
Le fichier annexe example_com_05-3_liens-ancres-vides.xlsx contient pour chaque URL la liste des pages recevant au moins un lien interne avec une ancre vide.
Toutes les analyses qui suivent portent sur les pages HTML indexables.
Pour optimiser la balise title, il faut exploiter son potentiel, c'est-à-dire utiliser au mieux la place disponible. Mais il faut également éviter les titres trop longs qui risquent de ne pas s'afficher en entier dans les résultats de recherche. L'idéal est de ne pas dépasser ~70 caractères ; au-delà de 80, nous considérons ça une erreur.
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages sans balise title ou avec une balise title vide | 0 | n/a | |
Nb de pages avec seulement 1 mot dans title | 0 | n/a | |
Nb de pages avec seulement 2 mots dans title | 3 | n/a | |
Nb de pages avec seulement 3 mots dans title | 21 | n/a | |
Nb de pages avec entre 71 et 80 caractères dans title | n/a | 14 | |
Nb de pages avec entre 81 et 100 caractères dans title | 0 | n/a | |
Nb de pages avec + de 100 caractères dans title | 0 | n/a | |
Nb total d'erreurs et d'avertissements | 24 | 14 | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0,31 % | 0,18 % |
Pour optimiser la balise title, il faut que chaque page ait une balise title unique (pas utilisée ailleurs sur le site), sinon nous considérons cela comme une erreur.
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de balises title utilisées plus d'une fois sur le site (hors balise vide) | 3 | n/a | |
Nb de pages indexables par Google concernées (balise vide incluse) | 6 | n/a | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0,08 % | n/a |
Pour éviter la sur-optimisation de la balise title, il faut éviter de répéter plus de 2 fois le même mot (et encore, c'est souvent trop de répéter 2 fois un même mot, c'est pourquoi nous considérons ce cas comme un avertissement). Néanmoins, il peut y avoir des cas particuliers, notamment avec les articles et autres mots très courants. Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages avec 2 fois un même mot dans title | n/a | 238 | |
Nb de pages avec 3 fois un même mot dans title | 3 | n/a | |
Nb de pages avec 4 fois un même mot dans title | 0 | n/a | |
Nb de pages avec 5 fois ou plus un même mot dans title | 0 | n/a | |
Nb total d'erreurs et d'avertissements | 3 | 238 | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0,04 % | 3,08 % |
Pour optimiser la balise title, même s'il peut y avoir des exceptions, nous recommandons de ne pas inclure votre marque (faites-le dans la meta description).
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages qui contiennent la marque "example" dans title | n/a | 4 | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0,05 % |
Pour optimiser votre référencement, aucune balise title ne doit comporter une ou plusieurs des erreurs décrites précédemment. Nous avons identifié les cas où une page HTML contient au moins une de ces erreurs dans la balise Title.
Pour cette conclusion, nous tenons compte uniquement des erreurs (pas des avertissements).
Voici les résultats de notre analyse :
Erreurs | ||
---|---|---|
Nb de pages avec une ou plusieurs erreurs dans la balise Title | 33 | |
Nb de pages indexables | 7 715 | |
Taux d'erreur | 0,43 % |
Pour optimiser la balise meta description, il faut exploiter son potentiel, c'est-à-dire utiliser au mieux les ~230 caractères disponibles (environ 3 lignes). Nous conseillons de rédiger un texte d'au moins 90 caractères.
Voici les résultats de notre analyse :
Erreurs | ||
---|---|---|
Nb de pages avec balise meta description vide ou absente | 0 | |
Nb de pages avec une meta description de moins de 90 caractères | 84 | |
Nb total | 84 | |
Nb de pages indexables | 7 715 | |
Taux d'erreur | 1,09 % |
Pour optimiser la balise meta description, il faut qu'elle soit unique (pas utilisée ailleurs sur le site).
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de balises meta description utilisées plus d'une fois (hors balise vide) | 3 | n/a | |
Nb de pages concernées | 6 | n/a | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0,08 % | n/a |
Pour optimiser votre référencement, aucune balise meta description ne doit comporter une ou plusieurs des erreurs décrites précédemment. Nous avons identifié les cas où une page HTML contient au moins une de ces erreurs dans la balise meta description.
Pour cette conclusion, nous tenons compte uniquement des erreurs (pas des avertissements).
Voici les résultats de notre analyse :
Erreurs | ||
---|---|---|
Nb de pages avec une ou plusieurs erreurs dans la balise meta description | 90 | |
Nb de pages indexables | 7 715 | |
Taux d'erreur | 1,17 % |
Pour vous donner le plus de chances de réussir votre référencement, nous vous recommandons d'utiliser les balises de titres H1, H2, H3... H6 (notées "Hn"). Attention, ces balises ne doivent être intégrées en théorie que sur les pages à fort contenu éditorial : sur les autres (accueil, listings, etc.) nous conseillons généralement uniquement une balise H1.
Voici les règles que nous vous recommandons de suivre (considérées sinon comme des erreurs) :
Voici d'autres règles que nous vous recommandons également de suivre (considérées sinon comme des avertissements) :
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages sans balise H1 | 150 | 0 | |
Nb de pages avec une balise H1 mais vide | 0 | n/a | |
Nb de pages où la 1ère balise Hn n'est pas une H1 | n/a | 150 | |
Nb de pages avec saut de niveau entre les Hn | n/a | 939 | |
Nb de pages avec une balise Hn trop longue | n/a | 1 204 | |
Nb de pages avec plusieurs balises H1 | n/a | 0 | |
Nb de pages avec balise H2-H6 isolée | n/a | 6 697 | |
Nb de pages avec le même libellé dans plusieurs Hn | n/a | 67 | |
Nb de pages avec le même libellé dans H1 et Title | n/a | 7 321 | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 1,94 % | n/a |
Vous trouverez dans l'annexe non seulement la liste des pages en erreur (sans balise H1), avec leur balise TITLE, mais aussi le libellé de toutes les balises H1 trouvées sur les autres pages.
Pour optimiser la balise H1, il faut que chaque page ait une balise H1 unique (pas utilisée ailleurs sur le site), sinon nous considérons cela comme une erreur.
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de balises H1 utilisées plus d'une fois sur le site (hors balise vide) | 4 | n/a | |
Nb de pages indexables par Google concernées (balise vide incluse) | 171 | n/a | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 2,22 % | n/a |
Comme vous le savez sans doute, l'objectif de l'algorithme Panda de Google est d'identifier les pages à faible valeur ajoutée. Panda est intégré au coeur de l'algorithme principal : même si Google n'indique plus de dates de mises à jour, il fonctionne chaque jour !
Nous y revenons plus loin dans ce rapport, mais un élément essentiel de la qualité est le contenu texte. Même si on trouve des contre-exemples, une page avec un contenu texte court est rarement de haute qualité (de nature à satisfaire tous les internautes). C'est ce qu'on appelle "thin content" dans le jargon SEO en anglais.
Une approche simpliste consiste à compter le nombre de mots dans l'ensemble de la page HTML (incluant l'entête, les menus, les barres latérales et le pied de page). Comme vous vous en doutez, cela ne fonctionne pas car ce qui compte, c'est la taille du contenu dans la zone principale de la page.
C'est pourquoi nous avons développé un algorithme spécifique, afin de vous aider à identifier les pages sans doute trop courtes.
Dans l'annexe ci-dessous, nous listons les pages dont le contenu texte est estimé trop court. Pour vous aider à les trier, nous fournissons un indice de gravité du problème, de 0 (aucun problème) à 100 (gros problème).
L'histogramme ci-dessous montre la répartition des pages de ce site selon leur indice de manque de contenu :
Le tableau ci-dessous donne la synthèse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages sans doute trop courtes | 5 020 | n/a | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 65,07 % | n/a |
Pour vous donner le plus de chances de réussir votre référencement, il faut que chaque page fasse suffisamment de liens vers les autres pages du site, mais pas trop.
Nous cherchons à identifier 4 types de problèmes :
Nos analyses portent sur l'ensemble de la page, en incluant le haut de page, les éventuelles marges et le pied de page.
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages avec en tout moins de 5 liens | 0 | n/a | |
Nb de pages avec en tout plus de 300 liens | n/a | 0 | |
Nb de pages avec plus de 10 liens externes | n/a | 35 | |
Nb de pages avec 1 ou plusieurs liens internes nofollow | n/a | 3 | |
Nb total | 0 | 38 | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0 % | 0,49 % |
Pour optimiser votre référencement, aucun contenu ne doit être disponible en interne à plusieurs URL différentes. En effet, si cela se produit, vous être confrontés aux problèmes de contenus dupliqués internes. Même si Google indique qu'il ne pénalise pas pour ça, avoir des contenus dupliqués internes dégrade les performances de votre référencement :
Nous avons analysé l'ensemble des pages HTML indexables afin d'identifier les cas de contenus dupliqués à 100%. Il s'agit donc des cas où l'ensemble du contenu HTML est strictement identique pour des URL différentes. Nous n'étudions pas les cas de contenus presque dupliqués, où la plupart du contenu est identique, mais pas la totalité. Les cas listés sont donc tous considérés comme des erreurs.
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb d'URL de pages HTML ayant un contenu strictement identique | 0 | n/a | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0 % | n/a |
Dans votre cas, comme aucune erreur n'a été détectée, le fichier annexe qui liste les erreurs n'a pas été généré.
Dans votre cas, comme aucune erreur n'a été détectée, le fichier annexe qui liste les erreurs n'a pas été généré.
Il ne faut surtout pas que les robots trouvent des identifiants de session dans vos URL, car cela génère de nombreux problèmes.
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages avec un ID de session | 0 | n/a | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0 % | n/a |
Dans votre cas, comme aucune erreur n'a été détectée, le fichier annexe qui liste les erreurs n'a pas été généré.
Dans votre cas, comme aucune erreur n'a été détectée, le fichier annexe qui liste les erreurs n'a pas été généré.
En interne, il ne devrait pas y avoir de liens incluant des paramètres de tracking dans les URL (passés derrière le signe ?).
Voici les résultats de notre analyse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages avec une variable de tracking | 0 | n/a | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 0 % | n/a |
Dans votre cas, comme aucune erreur n'a été détectée, le fichier annexe qui liste les erreurs n'a pas été généré.
Dans votre cas, comme aucune erreur n'a été détectée, le fichier annexe qui liste les erreurs n'a pas été généré.
Pour optimiser votre référencement, aucune page ne doit comporter une ou plusieurs des erreurs décrites précédemment. Nous avons identifié les cas où une page HTML contient au moins une de ces erreurs.
Pour cette conclusion, nous tenons compte uniquement des erreurs (pas des avertissements).
Voici les résultats de notre analyse :
Erreurs | ||
---|---|---|
Nb de pages avec une ou plusieurs erreurs dans le contenu | 5 024 | |
Nb de pages indexables | 7 715 | |
Taux d'erreur | 65,12 % |
Dans cette rubrique, nous faisons le point sur tous les liens qui sortent de votre site (ils pointent donc vers un autre nom de domaine). Nous les appelons des « liens externes », qu'il ne faut pas confondre avec des backlinks (qui peuvent être eux aussi internes ou externes).
Nous avons ignoré les liens nofollow et avons exclu de nos analyses les réseaux sociaux suivants : LinkedIn, Twitter, Facebook, Pinterest, Viadeo, Myspace, Youtube, Dailymotion, Instagram, Vimeo, Flickr.
Nous avons identifié 22 662 liens externes pointant vers 6 161 URL distinctes.
Nous nous intéressons ici uniquement au cas où vos liens pointent vers un document en erreur. Comme vous le savez, il vaut mieux éviter ce type de situation, aussi bien pour les internautes que pour le référencement.
Dans certains cas, l'URL de destination se fait rediriger : si l'URL finale est accessible, ce n'est pas un problème pour l'internaute mais dans l'idéal il ne devrait y avoir que des liens directs. C'est pourquoi dans ce cas nous considérons qu'il s'agit simplement d'un avertissement.
Voici le bilan des codes HTTP obtenus pour ces URL en erreur :
Code HTTP | Nb d'URL | % des URL externes |
---|---|---|
301 | 1 967 | 31,93 % |
302 | 406 | 6,59 % |
303 | 1 | 0,02 % |
307 | 3 | 0,05 % |
308 | 5 | 0,08 % |
400 | 14 | 0,23 % |
401 | 4 | 0,06 % |
402 | 1 | 0,02 % |
403 | 219 | 3,55 % |
404 | 1 156 | 18,76 % |
408 | 2 | 0,03 % |
410 | 29 | 0,47 % |
500 | 980 | 15,91 % |
503 | 589 | 9,56 % |
504 | 1 | 0,02 % |
526 | 1 | 0,02 % |
Erreurs | Avertissements | ||
---|---|---|---|
Nombre total de liens sortants externes redirigés | n/a | 2 382 | |
Nombre total de liens sortants externes en erreur | 2 996 | n/a | |
Nombre total de liens sortants externes | 6 161 | ||
Taux d'erreur | 48,63 % | 38,66 % |
Tous les détails (liste des codes HTTP pour chacune des URL de destination externe en erreur ainsi que l'URL du site qui fait un lien vers une page en erreur) sont dans le fichier annexe.
L'analyse des images consiste à étudier les balises <img> sur l'ensemble des pages HTML qui ont pu être crawlées (code HTTP 200).
25 560 images (autorisées au crawl) ont été trouvées et analysées sur 10 100 pages HTML.
Une image est parfois utilisée sur plusieurs pages HTML. Dans ces cas, il peut arriver qu'une même image ne soit pas intégrée de la même façon dans ces pages : parfois avec un attribut ALT, parfois sans, etc. Toutes les analyses associées sont présentées ci-après.
En analysant les 10 100 pages HTML accessibles, 182 images ont été identifiées mais non analysées car bloquées dans le fichier robots.txt. Vérifiez si c'était bien voulu.
Aucun crédit n'a été compté pour ces URL d'images.
Pour qu'une image soit correctement indexée, elle doit renvoyer un code HTTP 200. Voici le bilan des codes HTTP obtenus pour les URL des images (lisez leur signification en fin de rapport) :
Code HTTP | Nb d'URL en HTTP | Nb d'URL en HTTPS | Nb d'URL (HTTP et HTTPS) | % des URL crawlées |
---|---|---|---|---|
200 | 350 | 15 584 | 15 834 | 61,95 % |
301 | 1 | 8 489 | 8 490 | 33,22 % |
302 | 69 | 19 | 88 | 0,34 % |
404 | 451 | 697 | 1 148 | 4,49 % |
Total erreurs 3xx | 70 | 8 508 | 8 578 | 33,56 % |
Total erreurs 4xx | 451 | 697 | 1 148 | 4,49 % |
Total erreurs | 521 | 9 205 | 9 726 | 38,05 % |
Voici ce que cela donne sous forme graphique :
Toutes ces données sont disponibles dans l'annexe des images fournie précédemment.
Pour connaître les différents formats d'images sur le site, il faut analyser les types MIME (lisez leur signification en fin de rapport). Voici le bilan de ceux rencontrés pour les images répondant correctement (code HTTP 200) :
Type MIME | Nb d'URL | % des URL crawlées en code 200 |
---|---|---|
image/jpeg | 8 564 | 54,09 % |
image/png | 6951 | 43,90 % |
image/gif | 318 | 2,01 % |
image/svg+xml | 1 | 0,01 % |
Voici ce que cela donne sous forme graphique :
Toutes ces données sont disponibles dans l'annexe des images fournie précédemment.
Les images indexables sont toutes celles :
Voici le décompte pour votre site :
Nb d'images | % des images code 200 | |
---|---|---|
Images avec code HTTP 200 (A) | 15 834 | |
Dont images interdites d'indexation | 390 | 2,5 % |
Dont images avec URL canonique différente de l'URL crawlée | 15 | 0,1 % |
Nb total d'images non-indexables (B) | 405 | 2,6 % |
Nombre d'images indexables (A - B) | 15 429 | 97,4 % |
Toutes ces données sont disponibles dans l'annexe des images fournie précédemment.
Pour assurer une bonne vitesse d'affichage, il faut éviter les images trop lourdes. Pour cet audit, les images de + de 100 Ko sont considérées trop lourdes (valeur paramétrée au lancement).
2 889 images trop lourdes ont été trouvées.
Voici la répartition des images trouvées (code 200) en fonction de leur poids (en Ko) :
Poids (Ko) | Nb d'images | Pourcentage des images |
---|---|---|
0 à 49 | 9 690 | 61,20 % |
50 à 99 | 3 255 | 20,56 % |
100 à 199 | 731 | 4,62 % |
200 à 299 | 754 | 4,76 % |
300 à 399 | 387 | 2,44 % |
400 à 499 | 923 | 5,83 % |
500 à 799 | 76 | 0,48 % |
800 à 899 | 13 | 0,08 % |
1000 à 1499 | 5 | 0,03 % |
1500 à 1999 | 0 | 0 % |
2000 et + | 0 | 0 % |
Voici ce que cela donne sous forme graphique :
Toutes ces données sont disponibles dans l'annexe des images fournie précédemment.
En complément de l'analyse du poids du fichier présentée ci-avant, le temps de téléchargement a été mesuré pour chaque image analysée en code 200.
Voici la répartition par tranches de 200 ms
Temps de téléchargement (ms) | Nb d'images | Pourcentage des images |
---|---|---|
0 à 49 ms | 11 054 | 69,81 % |
50 à 99 ms | 1 310 | 8,27 % |
100 à 199 ms | 1 282 | 8,10 % |
200 à 299 ms | 953 | 6,02 % |
300 à 399 ms | 601 | 3,80 % |
400 à 499 ms | 357 | 2,25 % |
500 à 799 ms | 122 | 0,77 % |
800 à 999 ms | 52 | 0,33 % |
1000 à 1499 ms | 34 | 0,21 % |
1500 à 1999 ms | 41 | 0,26 % |
2000 ms et + | 28 | 0,18 % |
Voici ce que cela donne sous forme graphique :
Pour un meilleur référencement, les images doivent avoir un attribut alt rempli (avec une courte description de l'image), sauf les images décoratives (qui doivent avoir un attribut alt présent mais vide).
86 images sont utilisées dans des pages avec un attribut alt toujours absent, ce qu'il faut corriger.
452 images sont utilisées dans des pages avec un attribut alt présent mais toujours vide. C'est OK s'il s'agit d'images décoratives (design) mais pas pour les autres.
Toutes ces données sont disponibles dans l'annexe des images fournie précédemment.
Parfois, une image est affichée dans une page HTML avec des "dimensions forcées". Cela signifie que les dimensions indiquées dans les attributs width et height de la balise img diffèrent des valeurs réelles (largeur et hauteur) du fichier image. L'erreur la plus répandue est d'afficher une image de façon réduite par rapport à sa taille réelle, ce qui oblige pourtant le navigateur à télécharger la grande taille "pour rien". L'analyse effectuée ne tient pas compte des CSS.
7 885 images ont été trouvées toujours affichées avec des dimensions forcées dans le code HTML.
Dans l'annexe, la colonne "ratio taille HTML / taille image (optimal : 1)" vous permet de repérer les cas les plus extrêmes :
Toutes ces données sont disponibles dans l'annexe des images fournie précédemment.
Sur une page en HTTPS, toutes les ressources utilisées doivent être également en HTTPS, sinon le navigateur affiche un message d'avertissement. On parle de "mixed content" ou de "insecure content" quand certaines ressources sont en HTTP sur une page HTTPS. Parmi toutes les ressources, ceci s'applique bien évidemment aux images.
Remarque : une image en HTTP qui est redirigée vers du HTTPS est considérée comme HTTP.
482 pages HTML en HTTPS contiennent au moins une image HTTP, ce qu'il faut corriger.
Toutes ces données sont disponibles dans l'annexe des images fournie précédemment.
Voici les résultats du bilan de notre analyse des pages avec images :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages avec image(s) inaccessible(s) | 5 502 | n/a | |
Nb de pages en HTTPS avec image(s) en HTTP | 482 | n/a | |
Nb de pages avec image(s) sans attribut ALT | 248 | n/a | |
Nb de pages avec + de 50 images | 74 | n/a | |
Nb de pages avec image(s) trop lourde(s) | 2 889 | n/a | |
Nb de pages avec + de 1 000 Ko d'images | 41 | n/a | |
Nb de pages avec image(s) dont la taille est forcée dans le code HTML | n/a | 2 615 | |
Nb total d'erreurs et d'avertissements | 5 823 | 2 615 | |
Nb de pages avec images | 10 100 | ||
Taux d'erreur | 57,65 % | 78,07 % |
Google améliore sans arrêt son algorithme afin de favoriser les contenus de qualité et pénaliser les autres. C'est un objectif majeur pour l'algorithme Panda, mais aussi pour d'autres (Phantom et dans une certaine mesure Penguin, ainsi que des modules sans nom intégrés au coeur de l'algorithme général).
Nous ne prétendons pas pouvoir analyser la qualité des pages comme peut le faire l'algorithme de Google, mais nous avons tout de même développé un algorithme maison qui repère certains problèmes sur vos pages. Nous nous basons sur des aspects techniques mais aussi des éléments du contenu qui nuisent à l'expérience utilisateur.
Nous calculons le risque pour chaque page, noté QR pour "Quality Risk" : plus QR est élevé (le maximum étant 100), plus vous devriez étudier nos recommandations pour améliorer la qualité de la page.
Pour réduire le QualityRisk d'une page, suivez tous les conseils déjà listés précédemment dans ce rapport d'audit. En voici le résumé :
Comme vous l'avez compris, il ne s'agit que d'une première piste : à vous de compléter par d'autres analyses !
Pour l'ensemble des pages indexables de ce site, le QualityRisk moyen est de 38,3 (le pire possible étant 100).
L'histogramme ci-dessous montre la répartition des pages de ce site ayant un QualityRisk >= 5 (entre 0 et 4, les pages sont considérées sans risque) :
Par expérience, nous vous conseillons de ne pas avoir de pages avec un QualityRisk supérieur ou égal à 20. Le tableau ci-dessous donne la synthèse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages avec un QualityRisk >= 20 | 6 538 | n/a | |
Nb de pages avec un QualityRisk entre 5 et 19 | n/a | 1 042 | |
Nb de pages indexables | 7 715 | ||
Taux d'erreur | 84,74 % | 13,51 % |
Remarque : avant de supprimer une page identifiée comme étant à risque en termes de qualité, veuillez vérifier qu'elle ne correspond pas à l'un des 3 cas suivants (pour lesquels il ne faut pas supprimer la page mais l'améliorer) :
Dans l'annexe, nous listons uniquement les pages ayant un QualityRisk supérieur ou égal à 5. Cliquez sur le bouton ci-dessous pour télécharger les données associées :
Dans l'annexe, nous listons uniquement les pages ayant un QualityRisk supérieur ou égal à 5. Le fichier annexe example_com_10_analyse-qualite.xlsx contient les données associées.
Dans tout ce qui précède, nous avons étudié le site lui-même (par un crawl et l'analyse qui a suivi) pour identifier des erreurs ou des améliorations possibles concernant le référencement naturel. L'indice QualityRisk regroupe tout ça par page et permet d'estimer l'efficacité d'une page (ou son potentiel d'amélioration).
Grâce à l'accès au compte Google Analytics associé au site, des données mesurant les performances SEO effectives des pages ont pu être récupérées. En croisant les 2 analyses, il est possible d'obtenir des informations à haute valeur ajoutée, de prioriser les actions et de gagner du temps et de l'efficacité.
Remarque : pour toutes les analyses liées à Google Analytics, les URL de pagination sont exclues, ainsi que l'URL de départ (souvent la page d'accueil) car elle génère du trafic sur le nom du site, ce qui n'est pas comparable.
7 715 pages indexables ont été trouvées lors du crawl ; parmi elles, 1 est exclue des analyses croisées avec Google Analytics.
Dans la suite de cette section liée à Analytics, le terme “page” fait référence aux 7 714 pages indexables trouvées lors du crawl excluant ces pages spéciales.
Aucun échantillonnage n'a été effectué par Google Analytics pour fournir ces données (explications). Si en allant dans votre compte Google Analytics vous n'obtenez pas les mêmes valeurs pour les mêmes conditions que cet audit, cela peut provenir de l'échantillonnage. En effet, la récupération des données est réalisée via une méthode basée sur l'API officielle qui réduit les cas où l'échantillonnage se produit.
À savoir : les performances des pages AMP ne sont actuellement pas prises en compte (seules celles de la version HTML le sont).
Les pages qui ont généré des visites via le référencement naturel sur cette période sont appelée actives, les autres inactives. Dans Google Analytics, il s'agit du nombre de sessions enregistrées pour le support "organic" pour chaque page de destination.
Bien entendu, il est préférable d'avoir le maximum de pages actives. Et même parmi les pages actives, certaines sont très faiblement actives, ce qui revient presque au même (générer 1 ou 2 visites par an, c'est presque comme en générer 0). À chaque fois que vous arriverez à rendre active une page qui ne l'est pas actuellement, vous augmenterez votre trafic SEO. Idem pour les pages faiblement actives qui peuvent être optimisées.
Pour identifier tout ça, examinez l'analyse des pages inactives ci-après ainsi que l'analyse des pages zombies qui va plus loin pour vous aider...
Voici les détails :
Voici ce que cela donne sous forme graphique :
Comme vous pouvez le constater sur le graphique ci-dessus, 94,1 % de vos pages génèrent (chacune) moins d'une visite par jour !
Les pages inactives (ou faiblement actives) et pourtant trouvées par le crawl (et indexables) doivent attirer votre attention. En effet, il s'agit de pages avec lesquelles vous avez tout fait pour qu'elles génèrent du trafic, en vain (sur la période étudiée).
On peut même trouver des pages qui n'ont jamais été consultées pendant 1 an, toutes sources de trafic confondues ! Cette information est fournie dans l'annexe de la conclusion sous le libellé “Nb de vues de la page (GA)”.
C'est justement tout l'intérêt de l'analyse des pages zombies ci-après !
Avez-vous sur votre site des pages zombies ?
Une page zombie est une page qui non seulement cumule énormément de problèmes (et risque de décevoir l'internaute) mais aussi qui n'a pas de succès (génère pas ou très peu de visites SEO sur 1 an, est rarement consultée, rank très mal...).
L'indice Zombie de chaque page est calculé avec des valeurs entre 0 et 100, la pire valeur étant 100. Ces valeurs sont disponibles dans l'annexe en conclusion.
Au global, l'indice zombie moyen est de 40,6. Le profil du site est donc : risqué.
L'histogramme ci-dessous montre la répartition des pages du site en fonction de leur indice Zombie :
Par expérience, nous vous conseillons d'éviter d'avoir trop de pages avec un indice Zombie supérieur ou égal à 20. Le tableau ci-dessous donne la synthèse :
Erreurs | Avertissements | ||
---|---|---|---|
Nb de pages avec un indice Zombie >= 20 | 6 092 | n/a | |
Nb de pages avec un indice Zombie entre 1 et 19 | n/a | 1 068 | |
Nb de pages avec un indice Zombie de 0 | n/a | n/a | 554 |
Nb de pages analysées | 7 714 | ||
Taux d'erreur | 78,97 % | 13,84 % |
Que faire des pages zombies ?
Plus l'indice zombie d'une page est élevé, plus il est probable qu'elle soit “irrécupérable”.
Plus votre site a de pages à fort indice zombie, plus c'est risqué et inefficace :
Il est recommandé d'effectuer une analyse humaine suivant la méthode ci-dessous. Attention, le but est d'essayer de “sauver” le maximum de pages et de supprimer ou désindexer seulement en dernier recours.
Pour chaque page zombie identifiée, nous vous conseillons de tenter les solutions dans cet ordre (passez à une solution seulement si la précédente n'est pas applicable).
Il s'agit essentiellement de son contenu, mais parfois aussi de critères techniques (vitesse, profondeur et maillage…). Complétez les informations, mettez-les à jour, vérifiez si vous ciblez les bons mots-clés et que la richesse sémantique du texte est supérieure à celle de vos concurrents dans Google, améliorez l'UX, ajoutez des liens vers d'autres pages internes, précisez vos sources (avec des liens sortants externes), mettez en avant l'auteur, illustrez par des images ou des vidéos, etc. Ajoutez-lui des liens entrants internes et faites-en la promotion sur les réseaux sociaux ou dans vos mailings.
Si plusieurs pages ont un contenu trop faible traitant d'un même sujet, regroupez-les. Choisissez la meilleure de ce groupe (cluster), fusionnez les contenus et reformatez le résultat final. N'oubliez pas de supprimer les autres pages du cluster et de faire des redirections 301 vers l'URL qui les regroupera. Parfois, aucune URL existante n'est adaptée pour les regrouper : vous pouvez en créer une toute nouvelle et rediriger toutes les autres vers elle. En aucun cas il faut faire des redirections massives vers une même URL, surtout n'ayant pas de contenu équivalent aux pages supprimées (l'erreur classique étant de rediriger en masse vers l'accueil).
Si vous pensez que le contenu peut malgré tout intéresser des internautes ou générer des revenus, désindexez la page mais laissez-la en ligne. Sauf cas particulier, cela signifie que vous ne touchez pas au maillage interne : les liens vers la page restent en place. A vous d'évaluer si, une fois la page désindexée, il faut aussi la bloquer au crawl (fichier robots.txt).
Il s'agit ici d'une page irrécupérable ou d'une URL qui n'aurait jamais dû être indexée (“masse noire”). La page doit donc être supprimée (et désindexée). Si l'URL bénéfice de bons backlinks externes, faites une redirection 301 vers la meilleure page ayant un contenu sémantiquement proche. Sinon, votre serveur doit renvoyer un code 410. Si vous ne pouvez pas faire la 410, renvoyez un 404. Ca ne change pas grand chose mais c'est pour éviter de polluer votre rapport d'erreurs 404 dans Search Console notamment. Vérifiez que plus aucun lien interne ne pointe vers elle.
Parmi toutes les pages présentes sur votre site, en considérant l'ensemble des corrections d'erreurs et les optimisations possibles, par quoi devez-vous commencer pour améliorer votre référencement naturel ?
Nous savons très bien que votre temps (et vos ressources) est compté et vous devez vous concentrer sur le plus efficace : c'est pourquoi cette analyse repose sur un algorithme entièrement dédié à cela ! Basé sur des dizaines de critères et le fruit de nombreuses recherches, il détermine les pages les plus rentables à travailler, avec un indice de rentabilité pour chacune. Plus l'indice est élevé, plus la page est rentable à travailler. C'est-à-dire que le ratio "augmentation du trafic SEO" / "ressources à mettre en oeuvre (temps, argent, ...)" sera élevé.
Pour que ce soit efficace, il faut rester pragmatique : c'est pourquoi nous vous proposons seulement une sélection des pages de votre site. Quand vous aurez pu les travailler toutes, votre trafic SEO devrait avoir augmenté. Vous pourrez alors faire une nouvelle analyse pour étudier les nouvelles pages rentables à travailler, en tenant compte de toutes les évolutions (sur votre site mais aussi des internautes ou de Google).
Il est possible que certaines pages listées ici soient déjà performantes et qu'aucun problème n'ait été détecté dessus. Cela signifie que vous avez bien travaillé ! Et qu'il faut poursuivre avec les autres leviers : enrichissement de l'éditorial et des médias, amélioration de l'expérience utilisateur notamment sur mobile, obtention de backlinks de qualité, partages sur les réseaux sociaux, etc.
L'objectif de Google est que les internautes soient satisfaits de leur recherche, et donc du site (de la page) qui leur est proposée. Son algorithme est donc logiquement centré sur la notion de qualité des pages proposées à l'internaute. Pour avoir un bon référencement aujourd'hui et de façon durable, vous devez absolument vous concentrer sur cette notion.
Grâce aux données récupérées dans Google Analytics, nous calculons par page un indice évaluant la gravité que l'internaute ne soit pas satisfait. Il est basé sur 2 types d'analyses :
Cet indice prend des valeurs entre 0 (aucun problème) et 1000 (page la plus prioritaire à améliorer en termes de satisfaction utilisateur). Comme précédemment (Pages les + rentables à travailler en premier), nous sélectionnons les pages les plus stratégiques à améliorer.
L'analyse de la satisfaction utilisateur se base sur 2 indicateurs liés au comportement de l'internaute disponibles dans Google Analytics :
Nous avons choisi (pour l'instant ?) de ne pas nous baser sur les métriques liées à des durées, car leur mesure ne nous semble pas assez fiable ou représentative de l'ensemble de ce qui se passe sur un site.
Concernant les 2 indicateurs sélectionnés, nous considérons qu'il n'existe pas de valeur optimale universelle. Par exemple, le taux de rebond est forcément très différent sur un article d'un site d'actualité et sur une fiche produit d'un site ecommerce.
Par contre, nous avons remarqué qu'il était pertinent de comparer les pages entre elles, sur un même site. Ceci permet de repérer les pages qui semblent plus décevoir les internautes que d'autres pages.
En général, les pages qui cumulent ces 2 caractéristiques sont celles qui déçoivent le plus l'internaute :
Notre indice final tient également compte du trafic : plus une page génère de trafic (SEO), plus c'est important qu'elle satisfasse l'internaute. Toute notre analyse est basée sur la notion de page de destination pour les visites générées par le référencement naturel.
Bien entendu, il ne s'agit que d'un indice : il vous aidera à repérer des problèmes parmi la masse des pages de votre site, mais au final c'est à vous de conclure si une page est déceptive pour l'internaute.
Quelques explications sur les données fournies dans l'annexe :
Comme indiqué précédemment dans ce rapport, il est préférable de limiter la profondeur de vos pages, surtout celles qui sont stratégiques.
Pour commencer, le plus important est de mesurer les performances des pages selon leur profondeur, c'est-à-dire le nombre de visites que chaque page arrive à générer en moyenne, via le référencement naturel. Pour faciliter les comparaisons, ce nombre est indiqué pour une période de 30 jours, quelle que soit la période d'analyse choisie pour l'audit.
Le graphique qui suit indique le pourcentage de pages actives (en bleu) et de pages inactives (en rouge) par niveau de profondeur.
Attention : si dans un intervalle il y a peu de pages (actives + inactives), alors le taux de pages actives pour cet intervalle n'est pas significatif.
Pour compléter cette mesure du taux de pages actives, voici une étude de la répartition du trafic généré en référencement naturel (= "organic") selon le niveau de profondeur.
Attention : si vous avez beaucoup de pages trop profondes, elles peuvent malgré tout générer une part importante du trafic total, mais ce n'est pas pour autant recommandé ! Dans ce cas étudiez bien le 1er graphique ci-dessus.
Comme indiqué précédemment dans ce rapport, les pages avec trop peu de contenu texte sont généralement moins efficaces en référencement naturel. Pour maximiser vos chances de succès, il vaut mieux bien travailler le contenu éditorial, surtout sur vos pages stratégiques.
Pour chaque page indexable, un indice de gravité du manque de contenu a été calculé : 0 signifie qu'aucun problème n'a été détecté et 100 est le maximum.
Pour commencer, le plus important est de mesurer les performances des pages selon leur manque éventuel de contenu, c'est-à-dire le nombre de visites que chaque page arrive à générer en moyenne, via le référencement naturel. Pour faciliter les comparaisons, ce nombre est indiqué pour une période de 30 jours, quelle que soit la période d'analyse choisie pour l'audit.
Le graphique qui suit indique le pourcentage de pages actives (en bleu) et de pages inactives (en rouge) selon cet indice de gravité :
Pour compléter cette mesure du taux de pages actives, voici une étude de la répartition du trafic généré en référencement naturel (= "organic") selon l'indice de manque de contenu
Attention : si vous avez beaucoup de pages manquant de contenu, elles peuvent malgré tout générer une part importante du trafic total, mais ce n'est pas pour autant recommandé ! Dans ce cas étudiez bien le 1er graphique ci-dessus.
Comme indiqué précédemment dans ce rapport, pour chaque page indexable, son QualityRisk a été calculé. Plus il est élevé, plus la page risque de décevoir l'internaute et d'être pénalisante pour votre référencement naturel. Vous devriez améliorer la qualité de vos pages afin d'avoir un QualityRisk de 0, surtout sur vos pages stratégiques.
Pour commencer, le plus important est de mesurer les performances des pages selon leur QualityRisk, c'est-à-dire le nombre de visites que chaque page arrive à générer en moyenne, via le référencement naturel. Pour faciliter les comparaisons, ce nombre est indiqué pour une période de 30 jours, quelle que soit la période d'analyse choisie pour l'audit.
Le graphique qui suit indique le pourcentage de pages actives (en bleu) et de pages inactives (en rouge) selon QualityRisk.
Attention : si dans un intervalle il y a peu de pages (actives + inactives), alors le taux de pages actives pour cet intervalle n'est pas significatif.
Pour compléter cette mesure du taux de pages actives, voici l'étude de la répartition du trafic généré en référencement naturel (= "organic") selon QualityRisk.
Attention : si vous avez beaucoup de pages à trop fort QualityRisk, elles peuvent malgré tout générer une part importante du trafic total, mais ce n'est pas pour autant recommandé ! Dans ce cas étudiez bien le 1er graphique ci-dessus.
En connectant le compte Google Search Console associé au site (dans les conditions rappelées dans l'introduction), il est possible de récupérer des données mesurant les performances SEO des pages du site dans les pages de résultats de recherche (partie référencement naturel).
Non seulement nous fournissons des données brutes (plus complètes que celles disponibles dans l'interface web de Search Console), mais aussi les analyses avancées décrites ci-après.
Toutes les analyses qui suivent sont basées uniquement sur les pages indexables découvertes par RM Tech lors du crawl.
Grâce au couplage avec Google Search Console, nous récupérons pour chaque page indexable du site les données suivantes :
Contrairement à l'interface web qui vous limite à 1000 lignes, nous récupérons toutes les données, pour l'ensemble des pages indexables ayant eu des impressions. C'est un avantage énorme apporté par l'utilisation de l'API officielle.
Sur la période étudiée, avec les paramètres de crawl du site et les paramètres Google Search Console rappelés dans l'introduction, 4 166 541 clics ont été générés par 4789 pages (autres que l'URL de départ) via le référencement naturel sur Google.
L'URL de départ a généré 179 176 clics.
Voici les détails (en excluant l'URL de départ, les pourcentages étant exprimés par rapport au nombre de pages indexables autres que l'URL de départ) :
Retrouvez ces données dans l'annexe située dans la conclusion de l'audit.
En référencement naturel sur Google, passer de la position #2 à la position #1 est souvent très difficile et nécessite de progresser sur de nombreux critères. Le rapport (temps passé ou ressources utilisées) / (hausse de trafic) n'est donc pas toujours très bon.
Par contre, passer de la page 2 à la page 1 est très rentable. En effet, très peu d'internautes consultent la page 2, donc arriver en position #11 ou #12 génère très peu de visites. Pourtant, gagner 1 place de #11 à #10 est généralement bien plus simple que de #2 à #1.
Attention : il est inefficace de se baser uniquement sur Search Console pour tenter de faire passer d'une position moyenne 11 à 10. En couplant aux faiblesses de la page en termes de référencement, c'est bien plus efficace.
C'est pourquoi notre algorithme spécialement conçu pour cela repère les pages qui présentent le meilleur potentiel à ce niveau. Il est basé sur de nombreux critères issus aussi bien de Search Console que de l'audit RM Tech, dont les principaux sont les suivants :
Pour vous éviter d'être noyé sous une masse de pages à optimiser, nous sélectionnons seulement celles qui présentent le meilleur potentiel. Il est mesuré avec un indice (de 1 à 1000, le maximum possible).
Pour chaque page sélectionnée, l'annexe contient des recommandations sur ce qu'il faut précisément faire. Concrètement, elle contient les informations suivantes :
Remarque : si vous souhaitez mettre au point votre propre algorithme pour sélectionner autrement les pages, vous disposez dans l'annexe en conclusion de l'ensemble des données récupérées ou calculées par RM Tech.
Avoir toutes les données mesurées et calculées par RM Tech sur les pages indexables est très précieux pour faire des analyses encore plus avancées.
Grâce aux options Google Analytics et Google Search Console, les performances des pages (trafic généré en SEO et statistiques dans les SERP) ont pu être récupérées et agrégées avec les données du crawl et celles issues de l'analyse.
L'annexe ci-dessous liste toutes les URL crawlées avec pour chacune la raison de ce crawl (la plupart du temps il s'agit d'un lien mais ça peut aussi être une URL canonique ou une redirection par exemple). Dit autrement, cette annexe liste tous les backlinks internes follow de toutes les URL étudiées, avec l'ancre de chacun.
Vous trouverez ci-après une liste des problèmes techniques du référencement en cours sur votre site (étudié dans les conditions précisées dans l'introduction) et qu'il faut corriger au plus vite.
Il faut éviter de faire des liens internes vers des URL qui répondent en erreur. À la date de notre analyse, votre taux d'erreur était de 1,65 % (détails).
Il faut éviter de faire des liens internes vers des URL non indexables. À la date de notre analyse, votre taux d'erreur était de 23,61 % (détails).
Nous vous conseillons de faire en sorte que chaque page soit téléchargée en 600 ms maximum. À la date de notre analyse, nous avons identifié que 66,60 % des URL HTML code 200 sont trop lentes, ce qui n'est pas optimal (détails).
Il faut que la majorité des URL soit à une profondeur inférieure ou égale à 4. À la date de notre analyse, nous avons identifié que 84,30 % des URL indexables sont trop profondes (5 ou plus), ce qui n'est pas optimal (détails).
Il faut aussi que les pages reçoivent plusieurs liens entrants internes, avec des ancres distinctes. Notre analyse a montré que 54,34 % des pages n'ont pas des liens entrants internes assez efficaces.
Dans un premier temps, nous faisons le point sur le plus important, à savoir l'optimisation du contenu des pages HTML indexables. Le référencement étant tellement concurrentiel, vous devriez vous débrouiller pour n'avoir aucun frein sur votre propre site. Voici les éléments techniques que vous devez corriger au plus vite, classés par taux d'erreur décroissant :
Élément d'analyse | Taux d'erreur |
---|---|
contenu (détails) | 65,12 % |
balise meta description (détails) | 1,17 % |
balise title (détails) | 0,43 % |
Pour réussir votre référencement, il faudrait donc dans l'idéal qu'aucune de vos pages n'ait de sous-optimisation. Nous avons calculé un taux d'erreur global en identifiant toutes les pages HTML indexables qui contiennent une ou plusieurs erreurs (concernant les éléments techniques du tableau précédent).
Nb de pages ayant au moins une erreur technique | 5 034 |
Nb de pages indexables | 7 715 |
Taux d'erreur global | 65,25 % |
Plus vous réussirez à réduire ce taux d'erreur global, plus vous vous donnerez de chances de réussir un bon référencement. Évidemment, cela ne suffit pas, il faut par exemple :
À la date de notre analyse, votre taux d'erreur était de 48,63 % (détails).
En plus de ces éléments techniques assez connus, nous avons évoqué au début de ce rapport la problématique de la "masse noire". C'est ainsi que nous appelons les URL qui sont crawlées et même souvent indexées par Google alors qu'elles ne devraient pas être indexées, ou même pas exister du tout. Vous pouvez également avoir le problème inverse, à savoir que Google n'indexe qu'une partie de vos pages.
Dans les deux cas c'est un problème que vous devriez corriger. Pour savoir si vous êtes concerné, suivez les étapes suivantes :
Si votre site contient une boutique en ligne :
Si votre site contient une rubrique éditoriale (blog, actualités, conseils) :
Si votre site contient un forum :
Concernant les autres pages de votre site :
Faites la somme de tous les éléments identifiés à l'étape 1 : il s'agit du nombre de pages que vous souhaitez faire indexer dans les moteurs de recherche. Nous l'appelons Nombre de pages à indexer.
Comparez ce Nombre de pages à indexer au Nombre de pages indexables indiqué dans notre rapport (il était égal à 7 715 le jour de notre analyse) :
Pendant notre formation SEO, nous expliquons longuement comment éviter et corriger tous ces problèmes, au cours des 2 modules suivants :
Voici de quelle façon nous pouvons vous accompagner dans le succès pour votre référencement.
Ce type de rapport d'audit vous aide à identifier et à corriger les problèmes techniques qui freinent votre référencement naturel. Afin de détecter au plus vite les prochains problèmes techniques, nous vous conseillons de faire une nouvelle analyse :
D'une manière générale, refaire un audit SEO vous permet de surveiller et suivre l'avancée du travail effectué par vos équipes et/ou vos prestataires. Vous savez que vous pouvez compter sur notre expertise ainsi que sur l'exhaustivité et la fiabilité de notre outil indépendant.
Organisme de formation déclaré depuis 2006, nous avons formé plus de 4000 entreprises à de nombreuses composantes du webmarketing. Voici notre catalogue de formations :
Si vous avez besoin d'analyses spécifiques basées sur nos outils que ce soit dans le cadre d'une refonte de site web, d'analyses concurrentielles ou autres n'hésitez pas à nous contacter par email (contact@ranking-metrics.fr) ou par téléphone au 01 64 61 03 22.
Vous pouvez également :
Grâce aux outils spécifiques développés dans notre centre de recherche, nous avons pu faire une analyse exhaustive de votre site, page par page, en partant de la page d'accueil, comme Google peut le faire.
Au fil des années, nous avons pu mettre au point un outil qui reproduit de manière assez fidèle le fonctionnement de Googlebot (le robot de Google). Par exemple :
Voici les principaux codes HTTP (retrouvez la liste complète sur Wikipédia).
Les principales familles de codes :
Les codes les plus courants :
Voici les principaux types MIME, c'est-à-dire les formats de données des documents situés sur un site Internet (retrouvez la liste complète sur Wikipédia) :
Voici les principaux termes utilisés dans le jargon du référencement naturel (SEO) et notamment dans ce rapport d'audit. Vous trouverez des liens vers des articles qui détaillent les notions correspondantes :