Comment faire un bon audit SEO ?

visuel de l'article comment faire un bon audit seo

Prochainement sera un grand moment dans ma carrière professionnelle : je vais m’attaquer à la redoutable certification CESEO du SEO Camp (aujourd’hui FePSeM). Bien que ce soit une qualification très valorisante, elle reste réservée aux véritables experts du domaine et en est difficile d’accès. S’y inscrire est une chose, l’obtenir en est une autre. L’une des épreuves pratiques pour la passer est un audit SEO, et pour revoir mes acquis tout en guidant les SEO néophytes (mais aussi chevronnés avec des tips actuels et avancés), je vous propose aujourd’hui un article sur : Comment faire un bon audit SEO ?

 

Qu’est-ce qu’un bon audit SEO ?

Au-delà de savoir ce qu’est un simple check-up SEO, il va être plus intéressant de savoir ce qu’est un bon audit. Il ne faut pas voir ce livrable comme une simple accumulation de points à contrôler, c’est le reflet de votre expertise avec une stratégie complète que vous proposez et défendez. En tant que spécialiste SEO Lyonnais, je vois 3 grands points importants dans un audit : la valeur ajoutée que vous proposez au client et la priorisation des actions, la compréhension de votre livrable par votre interlocuteur et votre plan d’actions mis en avant.

 

Valeur ajoutée et priorisation

Même s’il me reste encore de longues années de service, je n’ai encore jamais vu de ma carrière un site parfait en termes de SEO. Et ce n’est pas parce qu’un site est performant qu’il est forcément irréprochable : notre travail de référenceur est d’aller perfectionner l’optimisation pour aller chercher la première position sur nos mots-clés.

Par contre, chercher la perfection doit aussi être concilié avec les ressources et souhaits du client. En tant que consultant en référencement naturel, mon but est d’apporter des leviers à la fois actionnables par mon interlocuteur, mais avant tout rentables. Tous les critères de classement n’ont pas le même poids en SEO : et c’est à votre expertise et expérience de savoir les prioriser.

 

Compréhension client

L’audit SEO sert de point d’appui pour définir la suite des actions à mener pour un client. S’il va réaliser les tâches demandées, ou du moins sera un engrenage nécessaire à leur bonne complétion, une compréhension des enjeux est nécessaire.

Attention je ne dis pas qu’il faut transformer votre client en pro du référencement naturel, mais plutôt qu’il comprenne comment ça marche et comment bien le faire. C’est aussi lui qui validera ou non votre stratégie, donc le plus vos recommandations lui sembleront pertinentes, le plus vous aurez de chances de faire passer votre roadmap. Ce qui nous emmène au point suivant.

 

Roadmap et stratégies

J’ai longtemps fait des audits de référencement naturel sans roadmap, c’est uniquement quand j’ai commencé à en développer sur mes livrables que je me suis rendu compte de mon erreur. Livrer un document d’une cinquantaine (voire centaine) de slides c’est bien, en définir une stratégie concrète c’est mieux.

Comme je le disais, si un client vous embauche c’est que ce n’est pas un professionnel du SEO (ou du moins normalement pas à votre niveau) et il ne veut pas le devenir : il souhaite avant tout un retour sur investissement. Pour cela on va développer notre plan d’actions et prioriser nos tâches, de préférence sous la forme d’une roadmap. On travaille les points les plus rentables dans un premier temps, puis aller dans le perfectionnement dans le fur et à mesure des mois.

 

Technique

On verra ici tout ce qui appartient au socle technique SEO d’un site, et la bonne prise en compte des pages et de leur contenu par les moteurs de recherche. Ici, seuls les bonnes pratiques à contrôler sont indiquées, si vous souhaitez vous renseigner sur leur impact et leur poids plus en détails, je vous recommande mon article sur apprendre le référencement naturel en tant que débutant. L’outil principal utilisé sera le fameux crawler Screaming Frog, que je vous recommande vivement (utilisé aussi pour la partie sémantique).

 

Balises Title / Meta Description

On commence par la base de la base : Les balises Title et Meta Description. Ces 2 balises doivent être présentes et uniques pour chaque page indexable.

La balise Title a un poids direct en SEO : y placer ses mots-clés aide au bon positionnement. C’est même considéré comme une quick-win (victoire rapide), ce critère étant simple à appliquer et ayant un impact d’optimisation fort. On veillera à ce qu’elle ne dépasse pas 580 pixels.

La balise Meta-Description a quant à elle un poids indirect. Placer des mots-clés en son sein n’aide pas directement au référencement naturel. Par contre, elle peut inciter l’utilisateur à cliquer sur votre résultat, et étant donné que le CTR joue sur le classement, vous avez tout à y gagner à faire venir (et convertir) l’utilisateur. Elle ne doit pas dépasser 920 pixels.

 

balise title et meta description du site hugo domeur

Je profite de mon espace restant dans ma balise Title pour me permettre un élément de réassurance.

 

Indexabilité et indexation du site

Premièrement, l’indexabilité représente la possibilité d’indexation ou non de pages d’un site pour un moteur de recherche. Par exemple, la présence d’une balise noindex peut empêcher une page d’être indexée (j’en parle en détails sur mon article traitant des problèmes d’indexation). On fera attention à ce que les pages-clés du site soient indexables, et les pages ne représentant pas une porte d’entrée directe et à faible contenu ne le soient pas (exemple : pages « panier », « mon compte », « confirmation de commande… », ou simplement les résultats de recherche internes).

Ensuite, par indexation je veux dire le ratio des pages indexées parmi celles indexables. Vous pouvez beau avoir fait la meilleure page du monde, si elle n’est pas présente sur les moteurs de recherche, impossible d’avoir des résultats SEO dessus. On définira comme stratégie de mieux mailler et améliorer le contenu des pages crawlées mais non-indexées. Chercher l’inverse (pages indexées mais non crawlées) est d’ailleurs une excellente technique pour détecter les pages orphelines d’un site.

 

Google Search Console et autres outils de suivi installés

À mes débuts, je ne jurais que par Google Analytics. Grave erreur. La Google Search Console donne tellement d’insights de qualité pour le SEO, à commencer par les performances, mots-clés recherchés, indexation, pour les plus avancés référencement des images, et tellement bien d’autres fonctionnalités pour voir ses analyses… S’en passer serait se tirer une balle dans le pied, c’est pour cela qu’on vérifiera toujours si le client l’a, et si elle est bien paramétrée.

Bing Webmaster Tools et autres outils propres à chaque moteur de recherche sont également d’excellents compléments selon les marchés où vous souhaitez vous positionner.

 

Redirection 3xx

Les redirections 301 et 302 ne sont pas un grand danger pour le SEO, mais peuvent tout de même impacter négativement le temps de chargement et le budget crawl. Ce sera plus un point de perfectionnement qu’une priorité (à moins que ce soit un audit SEO réalisé dans le cadre d’une refonte).

301 : Définit des redirections permanentes.

302 : Définit des redirections temporaires.

 

Erreurs 404

Les 404 sont plus ennuyeuses que les 3xx. On ne parlera plus de dépense non-nécessaire du budget crawl, mais de gaspillage pur et dur de ce dernier. Et même s’il n’y a pas de pénalités directes liées aux 404, en avoir un trop grand nombre peut, dans les faits, faire baisser votre positionnement général. Parfois, des 404 peuvent être présentes dans les liens structurels, notamment dans le footer : ils sont corrigeables rapidement.

 

Sitemap

Le sitemap.xml indique toutes les URLs d’un site à visiter puis indexer pour les robots des moteurs de recherche. L’idéal est de le récupérer, et crawler les URLs présentes sous format « liste » sur Screaming Frog. Objectif : s’assurer que chacune des pages indexables soient bien présentes, et que toutes les pages listées répondent bien en 200.

 

Robots.txt

Un autre must de tout audit SEO : la bonne configuration du fichiers robots.txt. Il indique quelles pages sont interdites d’accès aux robots, et quels robots sont concernés par ces directives. On fera attention à ce que les pages liées au back-office ou à la connexion soient inaccessibles par les googlebots, et si le fichier spécifie l’emplacement du sitemap.

 

Robots.txt de mon site. Simple, mais efficace. Il manque le lien vers le sitemap ceci dit.

 

Accessibilité des robots

Une notion pouvant facilement prendre au piège les SEO néophytes : ce n’est pas parce qu’un contenu est visible par les utilisateurs qu’il l’est pour les robots des moteurs de recherche. C’est d’autant plus à vérifier sur les sites développés from-scratch, et les textes accessibles au clic par exemple présent dans des accordéons.

En utilisant Google, on indiquera la commande cache: devant l’URL concernée pour accéder à la version telle que vue et enregistrée par ses robots.

 

Canonicals

Les URLs canoniques servent à définir quelle page prendre en compte pour le référencement, elles sont utilisées notamment quand 2 pages sont très proches sémantiquement (exemple : un produit en format 250 ml et le même produit en format 500 ml).

Si on ne souhaite pas leur donner de directives, l’idéal est qu’elles soient en self-canonical (l’URL canonique est la même URL que la page). Attention cependant en cas de modification d’URL à ce que la canonical suive bien…

 

URL

La structure des URLs n’a peut-être pas un impact déterminant, mais peut se révéler problématique si mal gérée. L’idéal est qu’on retrouve dans ces adresses nos mots-clés visés, séparés par des – (tirets du 6).

On prohibera tout ce qui est accent, car à la restitution une suite de caractères encodés fera son apparition à sa place. Exemple avec le site réussir-en.fr, qui devient https://xn--russir-en-b4a.fr/ si vous faites un copier-coller du nom de domaine.

 

Données structurées

Les données structurées peuvent être plus ou moins importantes selon le domaine de votre site web. Elles sont par exemple bien plus pertinentes pour les e-commerces ou les sites de recettes, dont leurs schema data sont plus régulièrement affichées.

On vérifiera avant tout qu’elles soient complètes, et que les bons champs ont été renseignés selon la nature de la page (recette, produit…).

 

Images

2 éléments sont importants à vérifier lors de l’optimisation des images : leur poids et l’attribut alt. Le poids d’une image va logiquement influer sur la vitesse de chargement de la page rattachée, tandis que l’attribut alt va servir à améliorer le positionnement de la page mais également à référencer l’image sur Google Images.

 

Responsive

Le Responsive, c’est simplement la version mobile d’un site. Pendant un temps, les Googlebots étaient Mobile First : c’est-à-dire qu’il s’agissait de la version Responsive d’un site internet qui étaient prise en compte pour le classement Google. Aujourd’hui, certaines sources ont affirmé que Google oscillait entre robots destinés aux versions mobiles et ordinateurs, ce qui ne serait pas une mauvaise chose car la plupart des business B2B reçoivent leurs visites majoritairement depuis des PC.

Quoi qu’il en soit, la firme de Mountain View proposait auparavant un test dédié aux versions Responsive. Aujourd’hui ce n’est plus le cas, et pour vérifier la bonne prise en compte de votre site sur mobile, il faudra dorénavant passer par Lighthouse.

 

Vitesse

Qu’on se le dise, l’indicateur de vitesse n’est pas le plus important SEO. Mais il n’est pas nul non plus. Simplement, si vous avez un site avec des metrics passables, ça ne doit pas être votre priorité.

Au-delà de ça, le temps de chargement influe aussi sur le comportement utilisateur et le taux de conversion. Ce n’est pas ce qui vous fera ranker, mais comme je le disais la vitesse d’un site reste importante sur un plan utilisateur. On utilisera Google Page Speed Insights pour voir l’optimisation d’une page en termes de vitesse (API aussi utilisable sur Screaming Frog), et on préfèrera GTmetrix pour checker la vitesse de chargement concrète.

 

vitesse du site hugo domeur lors d'un audit seo

Ouille, vivement la refonte…

 

Sécurité

Le 1er point niveau sécurité est la présence d’un certificat SSL valide sur son site web, et donc la mise en place du protocole HTTPS. En termes d’impact SEO, il reste très faible, cependant sa présence peut aussi rassurer les utilisateurs, et éviter d’éventuelles attaques malveillantes contre le site et ses informations.

Quant au 2e point, il va s’agir de tout ce qui est lié au hack. Contrairement à ce qu’on pourrait penser, on ne peut pas voir d’un 1er coup d’oeil que son site a été piraté, dans certains cas on ne le découvre qu’au moment de l’audit SEO justement. Les hacks les plus réguliers, et fortement nuisibles niveau SEO, sont les créations en masse de pages souvent en Chinois ou Japonais, fréquemment provoqués par le biais d’extensions de CMS elles-mêmes piratées. Si vous en détectez, ce sera un beau bazar à corriger, mais rien d’insurmontable.

 

Sémantique

Maillage interne

Le maillage interne est une discipline à part entière, nécessitant un travail de précision. Déjà, il faut séparer les liens structurels (présents sur le menu header / footer) et les liens contextuels (dans le contenu). C’est cette 2e typologie de lien qui va avoir, si bien gérée, un impact SEO fort. On va donc mailler intelligemment les pages par pertinence, dans l’idéal renvoyer vers nos pages transactionnelles pour améliorer leur PR (Page Rank), tout en faisant attention à ne pas abuser des liens internes pour qu’il reste du « jus » SEO à redistribuer.

On analysera également dans le maillage interne les ancres de lien. Elles doivent être représentatives de ce que l’on trouvera sur la nouvelle page en question, et plus on met en avant des ancres variées mais pertinentes, plus Google comprendra le sujet de la page maillée et améliorera son positionnement.

 

Contenu dupliqué

Rien de nouveau sur ce point : le contenu dupliqué est et a toujours été nocif pour le SEO. Cependant comme pour les hacks, rien d’insurmontable à corriger.

Pour les identifier, je vous recommande l’outil d’indentification de quasi-duplication de Screaming Frog. Pratique pour identifier 2 pages (ou plus) très proches sémantiquement.

 

Pages zombies

La notion de prise en compte de la qualité générale des contenus d’un site pour définir son positionnement global a été renforcé avec la mise à jour d’algorithme de Google Helpful Content de 2023. Une véritable chasse aux pages zombies a donc été lancée chez mes clients : on va aller identifier les pages avec très peu de positionnement, popularité, et au contenu faible ou à la qualité discutable. Et de mon côté, les résultats ont été au rendez-vous : après avoir supprimé plus de 400 pages à la qualité discutable sur le site d’un client comportant alors près d’un millier de pages, on a vu notre positionnement sur nos mots-clés suivis progresser, et le trafic augmenter.

 

Fréquence de publication

Un critère dont l’importance a été renforcée avec le temps. Il ne suffit plus de faire un beau site en 1 fois, le SEO est un travail de longue haleine qu’il faut continuellement accompagner.

L’idée est de vérifier la fréquence de publication d’articles sur un site, avant de définir si elle doit être modifiée ou non, notamment par rapport à la concurrence.

 

Et les mots-clés ?

Personnellement, je préfère segmenter la recherche de mots-clés dans une étude à part. Les audits SEO que je fais sont déjà relativement conséquents en contenu, et trouver des expressions pertinentes nécessite une toute autre approche.

Peut-être que ce sera le sujet d’un prochain article…

 

Netlinking

On ne s’attardera qu’assez peu sur le Netlinking lors d’un audit SEO. L’idée est avant tout de définir les lignes directrices, et voir si le Netlinking existant est positif ou non au site, avant de définir une stratégie en conséquence. Mais personnellement, pour une analyse et un plan d’actions bien plus développés, je recommande directement de faire un audit Netlinking.

Mon outil phare pour analyser cette partie ? Majestic SEO sans aucun doute.

 

Autorité de domaine et PR

Alors certes, l’autorité de domaine pure et dure sur le papier n’est pas importante, par contre elle vous donnera un indicateur de la « puissance SEO » d’un site. Un site étant reconnu et cité par ses pairs se voit attribuer davantage de confiance de la part des moteurs de recherche.

On s’intéressera cependant davantage au PR (PageRank) d’un site, véritable donnée utilisée par Google pour définir la puissance SEO d’une page. Cette métrique n’étant plus affichée (elle le fut passée un temps) sur le moteur de recherche du géant Américain, on se tournera davantage vers des outils essayant de reproduire ce score, comme le TF de Majestic SEO ou encore le PA de Moz.

 

Check-up des ancres

Le but de Google est de favoriser les sites étant cités par leurs pairs comme étant une référence dans leur domaine, et prodiguant des informations de haute qualité. Et non améliorer le positionnement de celui qui manipule le mieux son profil de liens.

Utiliser des ancres optimisées ou semi-optimisées peut certes aider au SEO, cependant en abuser peut pénaliser votre site (même si aujourd’hui, Google préfère simplement ignore ces liens dans le cas où ils seraient issus de Negative SEO). Donc si on développe son propre Netlinking, on fera attention à garder un profil de liens semblant naturel.

 

Analyse de la concurrence

On a récemment vu une recrudescence de consultants SEO sur les réseaux sociaux mettre en avant le fait que les backlinks aujourd’hui ne servent plus à rien, et que l’on peut très bien se positionner qu’avec un contenu bien meilleur. Dans les faits, cette affirmation ne marche que pour les blogs et requêtes informationnelles car, même si la sémantique est un domaine dont l’importance pour le positionnement a été amélioré, les backlinks restent pour Google un gage de qualité pour vérifier la qualité et popularité d’un site. Cette notion est davantage renforcé sur les sites et pages traitant de sujets YMYL (sujets sensibles, telles que les informations sur la santé, finance, sécurité, juridique, etc…).

 

Au-delà du SEO

Installation d’un outil d’Analytics

Un site ayant des sources de trafic autres que le SEO peut aussi aider votre référencement naturel. Le fait que des utilisateurs viennent depuis d’autres canaux veut indirectement dire que votre marque est populaire. Un peu à la manière du Netlinking (d’ailleurs, le trafic venant de sites externes est pris en compte).

Mais au-delà de ça, l’installation d’un outil type Analytics peut vous aider à connaître le parcours sur votre site de vos visiteurs, tracker vos conversions et bien plus. Un excellent complément à la Google Search Console.

 

Présence de la marque et e-réputation

Je pense notamment sur un plan local, ou international. Par exemple, dans le cas de SEO local, la marque de votre client se doit aussi d’avoir un bon Citation Building (présence fiches d’établissement Google, Pages Jaunes et autres annuaires locaux) pour être visible. Le référencement naturel ne se fait pas que les sites web des clients…

Mais la présence d’une marque peut aussi être très intéressant dans le cadre de collecte d’avis, notamment sur des plateformes indépendantes. Google n’ayant plus la main-mise sur les recherches d’avis pour une marque, il est important de varier ses sources d’avis en ligne.

 

citation building de hugo domeur dans un audit seo

Je peux voir l’évolution de mon GMB au fur et à mesure des articles que j’écris.

 

UX

Le comportement utilisateur a aussi une importance niveau SEO. Est-ce qu’un utilisateur consultant votre site reste longtemps ? Va-t-il chercher un autre site après ? Une bonne UX offre le potentiel à votre site pour convertir vos utilisateurs, et améliorer indirectement votre SEO. Dans un audit SEO, on peut par exemple analyser les menus et leurs pages liées, avant de proposer des optimisations pour faciliter et améliorer la navigation.

 

Récapitulatif de mes outils utilisés pour un audit SEO

  • Screaming Frog : Crawler un site à la manière d’un robot, déceler les problèmes techniques purs (ainsi que quelques facteurs sémantiques).
  • Search Console : Checker l’indexation, les performances et éventuellement d’autres aspects SEO du point de vue de Google. Pour l’indexation, on peut aussi utiliser la commande « site: » et un scraper de SERP.
  • La commande « cache: » : Vérifier la version d’une page enregistrée dans le cache Google.
  • Google Page Speed Insights / GTmetrix : Pour rappel, le 1er monitore le taux d’optimisation d’une page en termes de vitesse, et le 2e sa vitesse absolue.
  • Lighthouse : Utilisé pour vérifier la version Responsive d’une page, peut aussi donner d’autres insights avancés pertinents.
  • Majestic SEO : Checker le profil de liens (Netlinking) d’un site.

 

Conclusion

Le bon audit SEO n’est pas un simple étalage de votre science : c’est un livrable qui va avoir une valeur ajoutée très forte. Cette valeur, il l’obtient certes par la qualité de l’analyse, mais aussi par la qualité de la transmission de l’information à votre interlocuteur, et le plan d’actions que vous en découlez.

Enfin, je ne l’ai pas mentionné, mais n’hésitez pas à vous perdre sur le site d’un client et vous amusez avec vos outils et extensions : c’est souvent comme ça que l’on trouve des facteurs bloquants qu’un outil n’aurait pas pu relever.

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

J’accepte les conditions et la politique de confidentialité

div#stuning-header .dfd-stuning-header-bg-container {background-size: initial;background-position: top center;background-attachment: initial;background-repeat: initial;}#stuning-header div.page-title-inner {min-height: 650px;}