Audit technique SEO: le guide complet

Mis à jour le
Auteur
9/5/2022
Gary

logo pipedrive
logo monday.com

Votre site Web a des problèmes qui le ralentissent et l'empêchent de figurer en tête des pages de résultats. Il ne respecte pas les Core Web Vitals ou n’est pas responsive?

Sans aller jusqu’à la refonte complète de votre site, il y a certainement des mesures simples que vous pouvez prendre dès à présent et qui vont drastiquement améliorer le positionnement de vos pages sur les moteurs de recherche.

Traditionnellement, un audit SEO technique demande une certaine expertise et s’avère chronophage.  Même les référenceurs chevronnés peuvent parfois se sentir tout petits face à la tonne de recommandations qui apparaissent sur leurs outils.

C'est pourquoi je vous propose ce guide détaillé qui vous accompagnera pas à pas dans la réalisation d’un audit SEO performant et utile.

Pour ce faire, j’ai utilisé uniquement SemRush afin d'axer ce tutoriel pour les débutants avant tout.

Si vous souhaitez aller plus loin, vous pouvez consulter la liste des 14 meilleurs outils d’audit SEO. Ils sont quasiment tous gratuits.

Si vous hésitez entre les différentes boîtes à outils SEO disponibles, rendez vous sur la page SemRush vs Ahrefs vs MOZ où j’ai testé et donné mon avis sur le meilleur outil SEO 2022. 

Pour faciliter la mise en place de l’audit, cet article est  divisé en 15 étapes.

C’est parti!

1. Comment repérer et résoudre les problèmes d'indexation et d'accessibilité aux moteurs de recherche ?

L’indexation consiste pour Google à ajouter les URL de votre site dans son index géant. L’enjeu est simple, une page non indexée ne pourra jamais apparaître dans les résultats des moteurs de recherche.

Pour vous  assurer que Google et les autres moteurs de recherche peuvent explorer et indexer correctement votre site Web. Vous devrez vérifier:

  • l'outil d'audit du site de SemRush

  • le fichier robots.txt

  • Les sitemaps

  • Les sous-domaines

  • les pages indexées par rapport aux pages publiées.

Vous devrez également vérifier les balises canoniques et la balise meta robots. Vous trouverez plus d'informations sur les balises canoniques dans la section 3 et sur les méta-robots dans la section 8.

L'outil d'audit de site de Semrush

L'outil d'audit de site analyse votre site Web et fournit des données sur toutes les pages qu'il a pu explorer. Cela comprend:

  • le nombre de problèmes rencontrés
  •  le nombre de redirections
  • le nombre de pages bloquées
  • les performances générales du site
  • la facilité d'exploration, etc. 

Le rapport qu'il génère vous aidera à trouver un grand nombre de problèmes techniques liés au SEO

robots.txt

Vérifiez votre fichier robots.txt dans le dossier racine du site : https://domain.com/robots.txt.

Des tas d’outils en ligne existent pour savoir si le fichier robots.txt bloque des pages qui devraient être explorées. Nous aborderons ce fichier - et ce qu'il faut en faire - dans la prochaine section consacrée aux problèmes d'architecture du site. 

Sitemap

Les Sitemap existent en deux versions principales : HTML et XML.

Un Sitemap HTML est écrit pour que les gens puissent comprendre l'architecture d'un site et trouver facilement les pages.

Un Sitemap XML est spécifiquement destiné aux moteurs de recherche : Il guide l'araignée de manière à ce que le moteur de recherche puisse explorer le site Web correctement.

Il est important de s'assurer que toutes les pages indexables sont soumises dans le sitemap XML. Si vous rencontrez des erreurs d'exploration ou d'indexation, vérifiez votre sitemap XML pour vous assurer qu'il est correct et valide

Tout comme le fichier robots.txt, vous trouverez probablement un sitemap XML dans le dossier racine :

https://domain.com/sitemap.xml

S'il n'est pas là, une extension de navigateur peut vous aider à le trouver, ou vous pouvez utiliser les commandes de recherche Google suivantes :

site:domain.com inurl:sitemap

site:domaine.com filetype:xml

site:domaine.com ext:xml

S'il n'y a pas de sitemap XML, vous devez en créer un. Si le plan existant comporte des erreurs, vous devez revoir l'architecture de votre site. Nous détaillerons comment résoudre les problèmes de sitemap dans la section suivante. 

Pour résoudre les problèmes d'accessibilité et d'indexation, trouvez ou créez votre sitemap et assurez-vous qu'il a été soumis à Google.

Pour soumettre votre sitemap, vous devez le publier sur votre site Web à un endroit accessible (qui ne soit pas fermé par une page de connexion ou autre), puis saisir l'URL du sitemap dans le rapport Sitemaps de Google Search Console et cliquer sur "Envoyer".

Consultez le rapport Sitemap dans Google Search Console pour savoir si un sitemap a été soumis, quand il a été lu pour la dernière fois et quel est l'état de la soumission ou du crawl.

Votre objectif est de faire en sorte que le rapport Sitemap affiche le statut "Succès". Deux autres résultats potentiels, "Has errors" et "Couldn't fetch", indiquent un problème.

Sous-domaines

Dans cette étape, vous vérifiez vos sous-domaines, en tapant sur Google :

site:domain.com -www.

Notez les sous-domaines et le nombre de pages indexées pour chaque sous-domaine. 

Vous voulez vérifier si certaines pages sont des doublons exacts ou trop similaires à votre domaine principal. Cette étape vous permet également de voir s'il existe des sous-domaines qui ne devraient pas être indexés.

Pages indexées et pages soumises

Dans la barre de recherche Google, entrez :

site:domaine.com

ou

site:www.domain.com

À cette étape, vous vous assurez que le nombre de pages indexées est proche du nombre de pages soumises dans le plan du site.

2. Comment résoudre les problèmes courants d'architecture de site

Vous avez lancé le rapport d'audit de votre site et vous disposez du fichier robots.txt et des sitemaps. Avec ces éléments en main, vous pouvez commencer à corriger certaines des plus grosses erreurs d'architecture de site.

Structure du site

La structure du site est la façon dont un site Web est organisé. "Une bonne structure de site regroupe le contenu et rend les pages faciles à atteindre en aussi peu de clics que possible." 

Elle est logique et facilement extensible à mesure que le site Web se développe.

Voici six signes d'un site web bien planifié et structuré :

  • Il suffit de quelques clics ( idéalement trois) à un utilisateur pour trouver la page qu'il souhaite depuis la page d'accueil.

  • Les menus de navigation sont logiques et améliorent l'expérience de l'utilisateur.

  • Les pages et le contenu sont regroupés par thème et de manière logique.

  • Les structures URL sont cohérentes.

  • Chaque page présente des fils d'Ariane. L'objectif est d'aider les utilisateurs du site à voir comment ils ont accédé à la page où ils se trouvent.

  • Un bon maillage interne. Les liens internes aident les utilisateurs à se frayer un chemin sur le site de manière naturelle. 

Il est plus difficile de naviguer sur un site à l'architecture désordonnée. À l'inverse, lorsqu'un site Web est bien structuré et utilise les éléments énumérés ci-dessus, vos utilisateurs et vos efforts de référencement en bénéficient.

Hiérarchie du site

S'il faut 15 clics pour atteindre une page à partir de la page d'accueil, la hiérarchie de votre site est trop profonde. Les moteurs de recherche considèrent que les pages situées plus bas dans la hiérarchie sont moins importantes ou moins pertinentes.

Effectuez une analyse pour regrouper les pages en fonction des mots-clés et essayez d'aplanir la hiérarchie. En effectuant ce type de changements, vous modifierez probablement les URL et leur structure et vous pourrez également modifier les menus de navigation pour refléter les nouvelles catégories de premier niveau.

Structure des URL

Tout comme l'architecture du site Web, la structure des URL du site doit être cohérente et facile à suivre. Vous devez optimiser vos URL et les penser en amont de la création de votre architecture.

Par exemple, si un visiteur du site Web suit la navigation du menu pour les chaussures pour filles :

Accueil > Vêtements > Filles > Chaussures

L'URL doit refléter l'architecture.

En outre, les autres produits doivent avoir des structures URL similaires. Une URL différente indiquerait une structure d'URL peu claire, comme :

domain.com/boysfootwear

Idéalement, la hiérarchie du site - créée par les pages piliers et les groupes de sujets - se reflétera dans les URL du site Web.

domaine.com/pilier/cluster-page-1/

C'est ce qu'on appelle un silo d'URL, qui permet de maintenir la pertinence au sein du sous-répertoire d'un site.

Corrections du plan Sitemap

Examinez les sitemaps HTML et XML que vous avez trouvés à la première étape. Dans la console de recherche Google, regardez sous :

Index > Sitemaps

Cela vous permettra de repérer les erreurs que vous pouvez corriger. Par exemple, pour respecter les exigences de Google, votre sitemap ne peut pas dépasser 50 Mo non compressé et ne peut pas contenir plus de 50 000 URL.

En outre, vérifiez qu'il ne contient que le protocole approprié (HTTPS ou HTTP) et qu'il utilise l'URL complète que vous souhaitez voir indexée par le robot. Par exemple, si l'URL est

https://www.domain.com/produits

c'est ce qui doit figurer dans le plan du site, et non le domaine.com/produits ou /produits. Le plan du site aide le robot à trouver les pages, mais les pages ne seront pas explorées si les instructions ne sont pas claires.

Vérifiez que les sitemaps n'incluent pas les pages que vous ne souhaitez pas voir apparaître dans les SERP, comme les pages de connexion, les pages de compte client ou les contenus réservés

D'autre part, chaque page que vous souhaitez voir indexée par les moteurs de recherche doit être incluse dans le sitemap XML.

Corrections de robots.txt

Les sitemaps aident les utilisateurs et les robots des moteurs de recherche à trouver votre site Web et à y naviguer. Le fichier robots.txt vous aide à exclure certaines parties de votre site de l'exploration à l'aide de la commande disallow.

Vous avez trouvé votre fichier robots.txt plus tôt. Vous pouvez également le trouver en exécutant l'outil d'audit de site, qui vous permettra d'ouvrir le fichier directement à partir du rapport et de révéler toute erreur de formatage. Vous pouvez également utiliser l'outil de test dans Google Search Console.

Lorsque vous examinez le fichier robots.txt du site, notez qu'il doit effectuer les actions suivantes :

  • Diriger les robots des moteurs de recherche loin des dossiers privés.

  • empêcher les robots de surcharger les ressources du serveur

  • spécifier l'emplacement de votre plan de site.

Parcourez le fichier et vérifiez que toutes les règles d'exclusion sont utilisées correctement. 

Si vous trouvez un problème, il peut s'agir de protéger une page avec un mot de passe ou d'utiliser une redirection pour indiquer au moteur de recherche que la page a été déplacée. Vous pouvez également ajouter ou mettre à jour une balise meta robots ou une balise canonique.

3. Comment vérifier les balises canoniques et corriger les problèmes

Les balises canoniques sont utilisées pour indiquer la "page principale" que le moteur de recherche doit indexer lorsque vous avez des pages dont le contenu est identique ou similaire. Elles empêchent les moteurs de recherche d'indexer la mauvaise page en indiquant au robot la page à afficher dans les résultats de recherche.

Dans le rapport d'audit de site, vous verrez potentiellement plusieurs alertes liées à des problèmes canoniques. Ces problèmes peuvent affecter la façon dont les moteurs de recherche indexent votre site. 

Une balise canonique se présente comme ça:

<link rel="canonical" href="https://www.domain.com/page-a/" />

La balise canonique doit être incluse dans le code d'une page comme un signal : lorsque le robot voit la balise, il sait s'il doit indexer cette page.

Les meilleures pratiques pour les URL canoniques sont les suivantes :

  • N'utilisez qu'une seule URL canonique par page. La page ne doit pas diriger un robot vers plusieurs autres pages.

  • Utilisez le bon protocole de domaine : HTTPS ou HTTP.

  • Faites attention à la façon dont vos URL se terminent : avec ou sans barre oblique.

  • Précisez si vous souhaitez que la version www ou non de l'URL soit indexée.

  • Inscrivez l'URL absolue dans la balise canonique, et non une URL relative.

  • Incluez dans la balise canonique une URL qui n'a pas de redirection (comme une erreur 301) et qui est la cible directe. Elle doit donner lieu à un état 200 OK.

  • Ne marquez que le contenu légitime en double ou presque identique.

  • Assurez-vous que les pages en double ou les pages dont le contenu est presque identique ont la même balise canonique.

  • Incluez les balises canoniques dans les pages mobiles accélérées (AMP).

Les balises canoniques sont l'un des outils les plus importants que vous pouvez utiliser en matière de référencement. Elles permettent de s'assurer que votre site est crawlé et indexé correctement.

4. Comment résoudre les problèmes de liens internes sur votre site

Au fur et à mesure que vous améliorez la structure de votre site et que vous facilitez la recherche de contenu pour les moteurs de recherche et les utilisateurs, vous devez vérifier la santé et l'état des liens internes du site.

Votre site comporte deux principaux types de liens internes :

  • Les liens de navigation : Ils se trouvent souvent dans l'en-tête, le pied de page ou la barre latérale.

  • Les liens contextuels : ils sont inclus dans le contenu de la page.

Un troisième type, le fil d'Ariane, est utilisé moins souvent mais peut être un excellent complément à un site Web.

Revenez au rapport d'audit du site et cliquez sur "Afficher les détails" à côté de votre score de liens internes.

Dans ce rapport, vous serez alerté sur deux types de problèmes :

  • Les pages orphelines : Ces pages n'ont pas de liens qui y mènent. Cela signifie que vous ne pouvez pas y accéder via une autre page du même site Web. Même si elles sont répertoriées dans votre sitemap, elles ne sont pas forcément indexées par les moteurs de recherche.

  • Les pages ayant une profondeur de clic élevée : Plus une page est éloignée de la page d'accueil, plus son taux de clics est élevé et plus sa valeur pour les moteurs de recherche est faible.

Vous verrez également un aperçu des problèmes de liens internes de la page :

  • Erreurs : Les problèmes majeurs qui doivent être traités en priorité, comme les liens internes rompus.

  • Avertissements : Problèmes, notamment les liens externes rompus et les attributs nofollow dans les liens internes sortants.

  • Avis : Problèmes sur lesquels vous devez travailler après avoir traité les erreurs et les avertissements, notamment les pages orphelines et les redirections permanentes.

Vous pouvez également rechercher les pages qui présentent des problèmes de liens mais qui sont toujours indexées en consultant Google Analytics. Trouvez les pages les moins vues et ajoutez-les à votre liste de pages à évaluer.

En faisant le tri des pages présentant les problèmes ci-dessus, vous constaterez que beaucoup d'entre elles peuvent être corrigées facilement ou rapidement. Le rapport d'audit du site contient des conseils utiles pour résoudre chaque problème de liens internes.

Assurez vous que les liens internes :

  • soient directement liés à des pages indexables

  • sont liés à des pages qui n'ont pas de redirections

  • fournissent des informations pertinentes et utiles aux utilisateurs et aux moteurs de recherche, et non des informations aléatoires ou inutiles.

Les liens internes de votre site (et externes, d'ailleurs) doivent utiliser un texte d'ancrage approprié qui utilise des mots clés et permet aux utilisateurs de savoir exactement à quoi s'attendre lorsqu'ils atteignent la page en question. Ce qui est utile pour les utilisateurs l'est souvent aussi pour les robots des moteurs de recherche.

5. Comment vérifier et résoudre les problèmes de sécurité

Les données transférées via le protocole HTTP (Hypertext Transfer Protocol) ne sont pas cryptées, ce qui signifie qu'un attaquant tiers peut être en mesure de voler des informations. 

C'est pourquoi il ne faut pas demander aux utilisateurs de votre site Web de soumettre des paiements ou d'autres informations sensibles par HTTP.

La solution consiste à transférer votre site Web sur un serveur sécurisé utilisant le protocole HTTPS, qui utilise un certificat sécurisé, appelé certificat SSL, émis par un fournisseur tiers pour confirmer la légitimité du site.

Le protocole HTTPS affiche un cadenas à côté de l'URL afin d'instaurer la confiance avec les utilisateurs. Il  s'appuie sur la couche de sécurité du transport (TLS) pour garantir que les données ne sont pas altérées après leur envoi. 

Lors du passage à un serveur sécurisé, de nombreux propriétaires de sites Web commettent des erreurs courantes. Cependant, l’outil d'audit de site vérifie de nombreux problèmes qui peuvent survenir, notamment les 10 problèmes suivants:

  • Certificat expiré : Cela vous permet de savoir si votre certificat de sécurité doit être renouvelé.

  • Certificat enregistré pour le mauvais nom de domaine : vous indique si le nom de domaine enregistré correspond à celui qui figure dans votre barre d'adresse.

  • Ancienne version du protocole de sécurité : vous informe si votre site Web utilise un ancien protocole SSL ou TLS.

  • Pages non sécurisées avec saisie de mot de passe : vous avertit si votre site Web n'utilise pas le protocole HTTPS, ce qui amène de nombreux utilisateurs à douter de la sécurité du site et à le quitter.

  • Pas d'indication du nom du serveur : vous avertit si votre serveur prend en charge SNI, ce qui vous permet d'héberger plusieurs certificats à la même adresse IP pour améliorer la sécurité.

  • Pas de prise en charge du serveur HSTS : vérifie la réponse de l'en-tête du serveur pour s'assurer que HTTP Strict Transport Security est implémenté, ce qui rend votre site plus sûr pour les utilisateurs.

  • Contenu mixte : détermine si votre site contient du contenu non sécurisé, ce qui peut déclencher un avertissement "non sécurisé" dans les navigateurs.

  • Liens internes vers des pages HTTP : vous donne une liste de liens menant à des pages HTTP vulnérables.

  • Pas de redirections ou de canoniques vers des URL HTTPS à partir de versions HTTP : vous permet de savoir si les moteurs de recherche indexent une version HTTP et HTTPS de votre site, ce qui peut avoir un impact sur votre trafic web car les pages peuvent se faire concurrence dans les résultats de recherche. 

  • Liens HTTP dans le sitemap.xml : vous permet de savoir si vous avez des liens HTTP dans votre sitemap.xml, ce qui peut conduire à des crawls incomplets de votre site par les moteurs de recherche.

Le rapport de Semrush sur la mise en œuvre de HTTPS dans l'outil d'audit de site vous donne une vue d'ensemble de la sécurité de votre site et vous conseille sur la façon de résoudre tous les problèmes ci-dessus.

6. Comment améliorer la vitesse du site

La vitesse du site a un impact direct sur l'expérience utilisateur et impacte votre classement dans les moteurs de recherche. Lorsque vous vérifiez la vitesse d'un site, vous devez prendre en compte deux points:

  • La vitesse de la page : le temps de chargement d'une page Web.

  • La vitesse du site : la vitesse moyenne d'une page pour un échantillon de pages vues sur un site.

Si vous améliorez la vitesse des pages, vous améliorez la vitesse de votre site. Il s'agit d'une tâche tellement importante que Google a créé un outil spécialement conçu à cet effet : PageSpeed Insights. Le score qu'il donne est basé sur quelques métriques, dont le temps de chargement des pages.

Un autre outil intéressant est l'extension Core Web Vitals pour Google Chrome. Elle mesure les pages en fonction de trois paramètres clés de vitesse de page qui représentent l'expérience utilisateur perçue. Avec PageSpeed Insights, cette extension et le rapport Site Audit, vous aurez un aperçu approfondi des performances de votre site Web.

Le rapport Site Audit vous aidera à trouver et à résoudre les problèmes de performances suivants :

  • Taille importante des pages HTML

  • Vitesse de chargement lente des pages

  • Pages non compressées

  • Fichiers JavaScript et CSS non compressés

  • Fichiers JavaScript et CSS non mis en cache

  • Taille totale des fichiers JavaScript et CSS trop importante

  • Trop de fichiers JavaScript et CSS

  • Fichiers JavaScript et CSS non modifiés

  • Temps moyen d'interactivité des documents lent

Pour améliorer votre classement PageSpeed Insights et la vitesse globale de votre site, la première étape consiste à réduire la taille de vos images. Comme les images sont souvent une cause majeure de la lenteur du chargement des pages, vous devez les optimiser sans en réduire la qualité si possible.

Vous disposez de quelques options en matière d'optimisation des images, notamment le dimensionnement des images en fonction de leur taille d'affichage (et non de leur taille réelle) et leur compression afin d'éviter de forcer une page à charger une image de 1 Mo, par exemple.

Après les images, concentrez-vous sur l'optimisation de JavaScript et CSS. Utilisez la minification, qui "supprime les espaces blancs et les commentaires pour optimiser les fichiers CSS et JS". 

Pour accélérer davantage votre site Web : 

  • Supprimez les redirections

  • Utilisez la mise en cache du navigateur

  • Réduisez la taille des fichiers multimédias, notamment les vidéos et les gifs.

  • Réduisez les requêtes HTTP

  • Choisissez un fournisseur d'hébergement capable de gérer correctement la taille de votre site Web.

  • Utilisez un réseau de diffusion de contenu (CDN)

  • Compressez les fichiers HTML, JavaScript et CSS avec la compression Gzip.

7. Comment découvrir les problèmes de compatibilité mobile les plus courants

En février 2021, plus de la moitié (56 %) du trafic web se faisait sur des appareils mobiles. Google a mis en œuvre l'indexation mobile pour tous les sites Web au mois de mars 2021.

Le moteur de recherche indexe la version mobile de tous les sites Web plutôt que la version de bureau. C'est pourquoi il est impératif de résoudre les problèmes de compatibilité mobile et de rendre votre site responsive

Lors de l'optimisation pour les mobiles, vous pouvez vous concentrer sur le responsive web design (RWD) pour que les pages Web s'affichent correctement sur différents appareils, ou vous pouvez utiliser les AMP, qui sont des versions simplifiées des pages principales de votre site Web.

Les AMP se chargent rapidement sur les appareils mobiles. Google les exécute à partir de son cache plutôt que d'envoyer des requêtes à votre serveur.

Les AMP améliorent la vitesse des sites mobiles, mais ils présentent quelques inconvénients. Les propriétaires de sites Web ne peuvent pas percevoir de revenus publicitaires. De plus, le contenu du site Web peut varier sur le bureau et sur le mobile. 

Si vous utilisez des AMP, il est important de les auditer régulièrement pour vous assurer que vous les avez correctement mis en œuvre afin de renforcer votre visibilité sur les mobiles.

L'outil d’audit de site (de semrush toujours) teste vos pages AMP pour détecter 33 problèmes répartis en trois catégories :

  • Problèmes de HTML AMP

  • Problèmes de style et de mise en page AMP

  • Problèmes de templating AMP

En outre, l'outil détecte si la balise AMP nécessite une balise canonique. 

Lorsque vous consultez votre rapport AMP, passez la souris sur la balise de description du problème pour savoir ce qui ne va pas, puis sur chaque problème pour découvrir comment le résoudre. 

8. Comment repérer et résoudre les problèmes de code les plus courants

L'apparence d'un site Web n'a pas d'importance. Derrière l'interface flashy et les pages bien conçues se cachent du code. Ce code est un langage à part entière qui doit avoir une syntaxe et une ponctuation correctes, comme tout autre langage.

En tant que lecteurs pointilleux, Google et les autres moteurs de recherche peuvent ne pas prendre la peine d'indexer vos pages s'il y a des erreurs dans le code de votre site Web.

Pendant votre audit technique de référencement, gardez un œil sur plusieurs parties différentes du code et du balisage de votre site Web :

  • HTML

  • CSS (.css)

  • JavaScript (.js)

  • Balises Méta

  • Le protocole Open Graph, y compris le balisage Twitter Card

  • Schema.org

JavaScript

Google explore les sites Web codés en HTML de manière simple, mais lorsque la page contient du JavaScript, les moteurs de recherche doivent faire plus d'efforts pour explorer la page.

Les fichiers CSS et JavaScript ne sont pas indexés par un moteur de recherche ; ils sont utilisés pour le rendu de la page. Cependant, si Google ne parvient pas à les rendre, il n'indexera pas la page correctement.

Pour vous assurer qu'une page qui utilise JavaScript s'affiche correctement, utilisez Google Search Console. Trouvez l'outil d'inspection des URL, saisissez l'URL, puis cliquez sur "Tester l'URL".

Une fois l'inspection terminée, vous pouvez afficher une capture d'écran de la page telle que Google la restitue pour voir si le moteur de recherche lit le code correctement. Vérifiez les divergences et le contenu manquant pour savoir si quelque chose est bloqué, présente une erreur ou s'interrompt.

Si une page JavaScript n'est pas rendue correctement, c'est peut-être parce que des ressources sont bloquées dans le fichier robots.txt. Assurez-vous que le code suivant se trouve dans le fichier :

User-Agent : Googlebot

Autoriser : .js

Autorisé : .css

Si ce code est déjà en place, vérifiez vos scripts et leur emplacement dans le code. Il peut y avoir un conflit avec un autre script sur la page en raison de la façon dont les scripts sont ordonnés ou optimisés. 

Une fois que vous savez que Google peut afficher la page, vous pouvez vérifier que la page est indexée. 

Balises Méta

Une balise méta donne au robot du moteur de recherche des informations supplémentaires sur un élément de données. Ces balises sont utilisées dans le code HTML de votre page.

Les quatre types que vous devez bien comprendre sont :

  • les balises title

  • Les méta-descriptions

  • Métabalises robot

  • Métabalises de fenêtre d'affichage

Les métabalises robot sont utilisées dans le code source et fournissent des instructions aux robots d'exploration des moteurs de recherche. Parmi les paramètres les plus utiles, on peut citer:

  • Index 

  • Noindex

  • Follow

  • Nofollow

  • Noarchive 

La balise de contenu viewport "modifie automatiquement la taille de la page en fonction du périphérique de l'utilisateur" lorsque vous disposez d'un design responsive.

Open Graph, Schema et données structurées

Dans le code de votre page, l'utilisation de balises spéciales et de microdonnées envoie aux moteurs de recherche des signaux qui précisent le sujet d'une page. Elles peuvent faciliter l'indexation et la catégorisation des pages par les moteurs de recherche.

Les balises Open Graph sont des extraits de code qui contrôlent le contenu qui s'affiche lorsque les utilisateurs partagent une URL sur certains sites de médias sociaux. Les cartes Twitter ont leur propre balisage.

Schema est une collection partagée de langage de balisage que les développeurs web peuvent utiliser pour aider les moteurs de recherche à produire des résultats riches en contenu pour une page web dans les SERPs. 

Pour les pages Web qui, selon vous, pourraient s'afficher en tant que résultat de recherche enrichi sur une SERP, vous pouvez utiliser un balisage de schéma spécifique afin de concourir pour cette position. L'objectif de l'utilisation de données structurées est d'aider les moteurs de recherche à mieux comprendre le contenu de votre site, ce qui peut aboutir à l'affichage de votre site dans des résultats enrichis.

Un exemple populaire de résultats de recherche enrichis est le featured snippet

Si vous décidez d'essayer de gagner un résultat de recherche enrichi, utilisez le test des résultats enrichis pour vérifier le code de votre page Web afin de "voir quels résultats enrichis peuvent être générés par les données structurées qu'elle contient."

La clé pour trouver des erreurs dans le code de votre site Web est la pratique. Lorsque vous trouvez des pages signalées par des erreurs et des avertissements dans le rapport d'audit du site, et lorsque vous constatez des anomalies dans votre Google Search Console, vérifiez votre code.

Le diagnostic des problèmes techniques de référencement va beaucoup plus vite et est beaucoup moins frustrant lorsque votre code est propre et correct.

9. Comment repérer et résoudre les problèmes de contenu dupliqué

Lorsque vos pages Web contiennent des informations identiques ou quasiment identiques, cela peut entraîner plusieurs problèmes.

  • Une version incorrecte de votre page peut s'afficher dans les SERP.

  • Les pages peuvent ne pas être performantes dans les SERP ou avoir des problèmes d'indexation.

  • Les métriques de votre site principal peuvent fluctuer ou diminuer.

  • Les moteurs de recherche peuvent ne pas comprendre vos signaux de hiérarchisation, ce qui les conduit à prendre des mesures inattendues.

Effectuez un audit de contenu pour vous assurer que votre site ne connaît pas de problèmes de contenu dupliqué. Vous pouvez utiliser des pages piliers et des groupes de sujets pour créer un contenu organisé qui renforce l'autorité de votre site.

Faites également attention à la pagination de votre site, c'est-à-dire à l'ordre des pages d'archives.

Si l'outil Site Audit de Semrush détecte des pages dont le contenu est identique à 80 %, il les signalera comme étant du contenu dupliqué. 

Cela peut se produire pour trois raisons courantes :

  •  il existe plusieurs versions d'URL
  • les pages ont un contenu trop court
  • il y a des erreurs dans les paramètres de recherche de l'URL.

Versions multiples des URL

L'une des raisons les plus courantes pour lesquelles un site présente du contenu dupliqué est l'existence de plusieurs versions de l'URL. Par exemple, un site peut avoir une version HTTP, une version HTTPS, une version www et une version non-www. 

Pour résoudre ce problème :

Ajoutez des balises canoniques aux pages dupliquées. Ces balises indiquent aux moteurs de recherche d'explorer la page contenant la version principale de votre contenu.

Mettez en place une redirection 301 de vos pages HTTP vers vos pages HTTPS. Cette redirection garantit que les utilisateurs n'accèdent qu'à vos pages sécurisées. 

Pages au contenu trop court

Une autre raison pour laquelle l’audit peut trouver du contenu dupliqué est que vous avez des pages avec peu de contenu. Si vos en-têtes et pieds de page sont identiques, l'outil peut signaler une page dont le contenu ne comporte qu'une ou deux phrases. Pour remédier à ce problème, ajoutez un contenu unique à ces pages pour aider les moteurs de recherche à les identifier comme du contenu non dupliqué.

Paramètres de recherche d'URL

Les paramètres de recherche d'URL sont des éléments supplémentaires d'une URL utilisés pour aider à filtrer ou à trier le contenu d'un site Web. Vous pouvez les identifier car ils comportent un point d'interrogation et un signe égal.

Ils peuvent créer des copies d'une page, telle qu'une page de produit. Pour résoudre le problème, exécutez le traitement des paramètres via Google Search Console et Bing Webmaster Tools pour indiquer clairement à ces moteurs de recherche qu'ils ne doivent pas explorer les pages en double.

Astuce : Lorsque vous configurez un audit de site sur Semrush, vous pouvez également supprimer les paramètres d'URL avant qu'ils ne soient explorés. 

paramètres d'url de l'audit de site

Une fois que vous aurez lancé l'outil d'audit de site de Semrush, vous serez en mesure d'identifier le contenu en double et de résoudre les problèmes techniques qui peuvent amener les moteurs de recherche à traiter vos pages comme des doublons

Si vous voulez aller plus loin dans la lutte du contenu dupliqué vous pouvez consulter cet article sur les meilleurs outils d’audit technique SEO qui liste les solutions contre ce fléau

10. Comment trouver et corriger les erreurs de redirection

Les erreurs de chargement de page et de serveur affectent l'expérience utilisateur et peuvent créer des problèmes lorsqu'un moteur de recherche tente d'explorer votre site. Après avoir exécuté votre audit de site, vous verrez une liste de vos principaux problèmes ; cliquez sur le bouton ci-dessous, "Afficher tous les problèmes", pour voir vos erreurs de redirection et vos codes d'état.

Codes d'état 3xx

Ces erreurs indiquent que lorsque les utilisateurs et les moteurs de recherche arrivent sur cette page, ils sont redirigés vers une nouvelle page.

  • 301 : La redirection est permanente. Il s'agit d'un contenu identique ou très proche qui a été déplacé vers une nouvelle URL. Ce code est préférable car il transmet une valeur SEO à la nouvelle page.

  • 302 : Il s'agit d'une redirection temporaire pour un contenu identique ou proche. Elle peut être utilisée dans les cas où vous effectuez un test A/B sur un nouveau modèle de page, par exemple.

  • 307 : indique également une redirection temporaire, mais signifie qu'il y a un changement de protocole de la source à la destination. Ces redirections doivent être évitées.

Signalez toute page comportant plusieurs redirections, appelée chaîne de redirections, lorsqu'il existe plusieurs redirections entre l'URL d'origine et l'URL finale. Supprimez également les boucles, qui se produisent lorsque l'URL d'origine renvoie à elle-même. Vous pouvez trouver une liste de toutes les chaînes et boucles de redirection de votre site Web dans l'outil d'audit de site.

Les redirections sont une solution utile pour le référencement et doivent être utilisées lorsque cela est approprié : lorsque le contenu a changé, que cette page n'est plus disponible ou à jour.

  • Codes d'état 4xx

Ces erreurs indiquent qu'une page demandée n'est pas accessible et sont connues sous le nom de liens brisés. Les erreurs 4xx les plus courantes sont les suivantes

403 : L'accès est interdit, ce qui signifie généralement qu'une connexion est nécessaire.

404 : La ressource n'existe pas et le lien doit être réparé.

410 : La ressource a définitivement disparu.

429 : Il y a trop de demandes sur le serveur en un temps trop court.

  • Codes d'état 5xx

Les erreurs 5xx existent du côté du serveur. Elles indiquent que le serveur n'a pas pu exécuter la demande.

Passez en revue votre rapport d'audit du site et corrigez les pages qui ont un statut qui n’est pas le code 200 OK. Gardez une liste des pages qui ont un statut 403 ou 301, par exemple, afin de vous assurer que vous utilisez ces redirections correctement.

Vérifiez également les pages qui présentent des erreurs 410 pour vous assurer que la ressource est légitimement et définitivement supprimée et qu'il n'existe pas d'alternative valable vers laquelle rediriger le trafic.

11. L’analyse des logs

Cette étape vous permet d'examiner votre site Web du point de vue d'un bot de Google afin de comprendre ce qui se passe lorsqu'un moteur de recherche parcourt votre site. Les logs ou  fichiers journal de votre site Web enregistrent des informations sur chaque utilisateur et chaque robot qui visite votre site, y compris les détails suivants.

  • L'URL ou la ressource demandée

  • le code d'état HTTP de la requête

  • L'adresse IP du serveur de la demande

  • L'heure et la date de la demande

  • l'agent utilisateur à l'origine de la demande, par exemple Googlebot

  • la méthode de la requête.

Cet outil peut vous aider à répondre à plusieurs questions concernant votre site Web sans avoir à analyser manuellement vos logs notamment :

  • Quelles erreurs l'outil a-t-il trouvées pendant l'exploration ?

  • Quelles sont les pages qui n'ont pas été explorées ?

  • Quelles sont les pages les plus explorées sur votre site ?

  • Y a-t-il des augmentations soudaines de la quantité d'exploration ?

  • Pouvez-vous gérer l'exploration de Googlebot ?

La réponse à ces questions peut vous aider à affiner votre stratégie de référencement ou à résoudre les problèmes d'indexation ou d'exploration de vos pages Web.

Pour utiliser l’outil d'analyse des logs de Semrush, vous avez besoin d'une copie de votre fichier log. Vous pouvez y accéder via le gestionnaire de fichiers de votre serveur dans le panneau de contrôle ou via un client FTP. Une fois que vous avez trouvé votre fichier log, vous devez suivre trois étapes.

  • Assurez-vous qu'il est dans le bon format access.log.

  • Téléchargez le fichier vers l'analyseur de fichiers journaux.

  • Lancez l'analyseur.

Une fois l'analyseur de log terminé vous obtiendrez un rapport détaillé

Vous y verrez :

  • Les bots : Le nombre de requêtes que les différents robots des moteurs de recherche effectuent chaque jour sur votre site.

  • Codes d'état : La répartition des différents codes d'état HTTP trouvés par jour.

  • Types de fichiers : Répartition des différents types de fichiers explorés chaque jour.

Vous pouvez également consulter le rapport Hits by Pages, qui indique les dossiers ou les pages de votre site qui reçoivent le plus ou le moins de visites de robots - et les pages qui sont explorées le plus souvent.

12. SEO onsite

Le référencement onsite est le processus d'optimisation du contenu de votre page afin de le rendre aussi accessible que possible aux moteurs de recherche.

En raison de l'abondance de contenu en ligne, le référencement onpage a une grande importance. Un référencement onpage réussi augmente les chances que les moteurs de recherche associent la pertinence de votre page à un mot clé pour lequel vous souhaitez être classé.

Il existe plusieurs étapes clés pour optimiser le référencement sur page.

Pour commencer, surveillez ces problèmes courants.

Balises de titre trop longues

Une balise de titre est le titre d'une page Web qui apparaît dans les SERPs. En cliquant sur une balise de titre, vous accédez à la page correspondante. Les balises de titre n'indiquent pas seulement aux internautes le sujet de la page, elles indiquent également aux moteurs de recherche dans quelle mesure cette page est pertinente par rapport à la requête.

En règle générale, les balises de titre doivent comporter entre 50 et 60 caractères (car Google ne peut afficher qu'environ 600 pixels de texte dans les pages de résultats) et contenir des mots clés importants. Vous pouvez vérifier la longueur de votre balise titre (ainsi que d'autres aspects de votre contenu) avec l'assistant de rédaction SEO de Semrush.

H1s manquants

Les balises d'en-tête (H1, H2, etc.) permettent de séparer les sections de texte. Comme les longs morceaux de texte peuvent être difficiles à lire, les en-têtes aident les gens à parcourir et à comprendre le contenu plus rapidement. Les balises H1 sont plus générales, tandis que les en-têtes descendants aident à structurer un contenu plus spécifique.

Les balises H1 aident les moteurs de recherche à déterminer le sujet d'un contenu donné. L'absence de balises H1 entraînera donc des lacunes dans la compréhension de votre site Web par Google. N'oubliez jamais ceci : Il ne doit y avoir qu'une seule balise H1 par page. 

Balises H1 et de titre en double

Des balises H1 et de titre identiques peuvent donner l'impression qu'une page est trop optimisée, ce qui peut nuire à votre classement. Plutôt que de copier mot à mot une balise de titre lors de la rédaction d'un H1, envisagez un en-tête connexe mais unique. Vous pouvez également considérer les balises d'en-tête comme de nouvelles opportunités de classement pour d'autres mots-clés pertinents.

Contenu trop court

De la même manière que le contenu dupliqué peut être problématique pour le référencement, il en va de même pour le contenu trop court. C’est le type de contenu qui n'apporte que peu ou pas de valeur aux utilisateurs ou aux moteurs de recherche.

Une fois que vous avez identifié ces pages, améliorez-les en ajoutant du contenu unique de bonne qualité ou en demandant au robot d'exploration de ne pas indexer la page (vous pouvez le faire en ajoutant un attribut noindex). 

Consultez la liste de contrôle complète du référencement onpage ou utilisez l'outil d'audit de site pour vérifier l'état de santé du référencement sur page de votre site.

13. Référencement international

Si vous avez un site Web qui a pour but d’être visible dans au moins deux pays, vos efforts de référencement comprendront le hreflang, le géociblage et d'autres éléments importants de référencement international.

hreflang

Le rapport d'audit du site vous donne un score pour le référencement international et vous alerte sur les problèmes liés aux balises hreflang. Vous pouvez également vérifier ces balises dans Google Search Console avec le rapport Ciblage international.

Le code hreflang indique aux moteurs de recherche que la page est destinée aux personnes qui parlent une langue spécifique. L'attribut hreflang signale aux moteurs de recherche qu'un utilisateur effectuant une requête dans une langue particulière doit recevoir des résultats dans cette langue plutôt qu'une page au contenu similaire dans une autre langue. Lorsque vous utilisez cette balise, placez-la comme un lien dans l'en-tête HTML de la page.

Ciblage géographique et autres conseils de référencement international

En plus de la vérification des balises hreflang, vous devriez :

  • Effectuer des recherches de mots-clés pour d'autres pays avec l'outil Keyword Magic Tool.

  • Mettre en place un suivi pour des emplacements spécifiques avec l'outil de suivi des positions.

  • Vérifier les améliorations potentielles sur la page avec l'outil On Page SEO Checker.

Certains sites devront également envisager d'utiliser une structure d'URL qui montre qu'une page ou un site Web est pertinent pour un pays spécifique. 

Par exemple, un site Web destiné aux utilisateurs français d'un produit peut utiliser :

domaine.com/fr ou domaine.fr

Enfin, si le site Web que vous contrôlez est très présent dans deux langues ou régions différentes, envisagez d'engager un rédacteur web spécialisé SEO qui parle la langue et connaît la région pour gérer cette version du site Web.

Les sites web qui utilisent la fonction intégrée "traduire cette page" du moteur de recherche ou qui utilisent une application de traduction pour simplement copier le contenu d'une langue à une autre n'offriront pas une aussi bonne expérience utilisateur et obtiendront probablement de mauvais résultats dans les SERPs.

14. Référencement local

Le référencement local est l'optimisation d'un site web pour un produit, un service ou une entreprise pour une requête spécifique à un lieu. 

Les moteurs de recherche affichent des résultats basés sur l'emplacement de l'utilisateur via:

  • L'adresse IP pour les utilisateurs de bureau.

  • Géolocalisation pour les utilisateurs de téléphones portables

Par exemple, si une personne recherche "nourriture thaïlandaise", le moteur de recherche affichera les restaurants thaïlandais locaux en fonction de l'adresse IP ou de la géolocalisation de l'internaute. 

Si votre site web ne contient pas d'informations précises ou complètes et n'est pas optimisé pour le référencement local, les membres de la communauté risquent de ne pas trouver facilement votre site.

Google My Business (GMB)

Une page Google My Business est l'un des outils les plus importants pour toute entreprise qui fait la promotion de ses services ou de ses produits en ligne. Elle affiche les coordonnées de l'entreprise, sa catégorie, sa description, ses horaires, ses services, ses menus (pour les restaurants), etc. Il est important de remplir le maximum d'informations, aussi précisément que possible.

Les GMB permettent également aux gens de :

  • demander des devis

  • d'envoyer un message ou d'appeler directement l'entreprise

  • prendre rendez-vous

  • laisser des commentaires.

En outre, les pages GMB vous permettent de voir comment vos clients interagissent avec votre entreprise en gardant la trace des appels, des commentaires, des réservations, etc.

Cette page est extrêmement importante pour le référencement local. 

Optimiser votre site Web pour le référencement local

La gestion des citations et la compatibilité mobile sont deux des facteurs de classement les plus importants pour le référencement local.

Gestion des citations : 

Une citation locale représente toute mention en ligne, des sites Web aux réseaux sociaux et aux applications (waze…), des coordonnées d'une entreprise locale. Des citations locales correctes et cohérentes aident non seulement les gens à contacter une entreprise, mais elles peuvent également avoir un impact sur le classement des moteurs de recherche et aider une entreprise à se classer sur Google Maps. Pour garantir la cohérence de vos citations locales, vous pouvez utiliser l’outil de gestion des listes. 

Compatibilité mobile : 

La compatibilité de votre site pour les mobiles est aujourd’hui extrêmement importante. Pour vérifier que votre site est responsive, c’est à -dire que les éléments qui s’affichent s’adaptent à la taille de l’écran, vous pouvez utiliser la rubrique "Aperçu du domaine" de Semrush. En haut du rapport, vous pouvez sélectionner Desktop ou Mobile. Passez à "Mobile" pour afficher les données d'analyse mobile, y compris un score de convivialité mobile.

Vous pouvez doubler votre analyse à l’aide de l’outil de Google 

Création de liens locaux:

Une façon judicieuse d’optimiser votre référencement local est de faire en sorte que les blogs locaux, les entreprises locales , les sites Web du secteur ou la presse locale créent des liens vers votre site. Semrush dispose d’un outil intéressant d’aide à la création de liens qui peut vous aider dans cette tâche.

15. Restez à l'affût des changements de les algorithmes

Les responsables du référencement utilisent des feuilles de calcul, des tableaux croisés dynamiques et un tas d'outils divers pour étudier et améliorer leurs sites Web. Vous aussi, vous devez rester aussi organisé que possible pour détecter les changements inattendus et être prêt pour les inévitables mises à jour des algorithmes

En remarquant les tendances et en restant à l'affût des problèmes évitables, vous pourrez rester dans la course quelque soit les mises à jour.

Dans l'onglet de Semrush "Compare Crawls" du rapport d'audit de site, vous pouvez sélectionner des crawls spécifiques et les analyser pour comparer vos résultats à partir de deux rapports distincts.

L'onglet "Progrès" comporte un graphique linéaire interactif qui présente l'état de santé de votre site Web au fil du temps. Vous pouvez sélectionner des erreurs, des avertissements ou des avis spécifiques pour voir comment votre site a progressé, ou vous pouvez regarder les statistiques globales.

En résumé

On l’a vu, il y a beaucoup d’étapes à vérifier pour vous assurer que votre site soit techniquement au top. Néanmoins, si la perfection n’est pas de ce monde, votre site n’a pas nécessairement à l’être non plus.

Il y a des tonnes de choses à faire aussi, le plus simple est sûrement de classer et hiérarchiser les problèmes les plus graves et d’y remédier progressivement.

La clé d'un référencement efficace est d'en faire un travail d'équipe. Lorsqu'une entreprise divise ses équipes :les créateurs de contenu, les gestionnaires de sites Web, les équipes de référencement et d'autres départements, le site Web se construit de manière fragmentaire.

Lorsque tous ceux qui contribuent à un site Web travaillent ensemble, les utilisateurs et les moteurs de recherche s'en rendent compte. L'interface est plus belle, l'expérience utilisateur est supérieure et les moteurs de recherche peuvent indexer et explorer correctement votre site.

Restez organisé et tenez vos équipes informées des bases du référencement. Plus vous travaillerez ensemble pour assurer le bon fonctionnement de votre site, plus vos audits techniques de référencement se dérouleront bien.

Les autre sujets qui pourraient vous intéresser