Aujourd’hui, Mehdi décrypte pour nous l’audit technique d’un site et nous permet de naviguer entre le langage hermétique des professionnels et les algorithmes Google.
Peux-tu nous expliquer en quoi consiste ton quotidien de consultant SEO ?
Après une dizaine d’années d’expérience en tant que consultant seo, je suis actuellement directeur seo.
Mon rôle est de gérer le pôle seo dans son ensemble, de piloter les consultants et d’intervenir avec eux sur la plupart des dossiers clients. Je participe aux réunions, je touche aux trois leviers du seo. Dans les faits, et pour simplifier, on peut dire que mon temps de travail se divise essentiellement en deux parties ;
- L’assistance à la production avec les équipes ;
- Organisation du travail. Ce qui implique la gestion des process, le choix des outils, l’écoute et l’accompagnement des équipes, …
Tu évoquais à l’instant les trois leviers du seo. Tu peux nous expliquer ?
Comme tu le sais, le travail sur un site se décline sur trois axes précis ;
- La technique
- La sémantique,
- Le netlinking,
Pour imager la chose ; le seo, c’est un peu comme une voiture. L’audit technique, c’est la préparation du véhicule. On va tout vérifier, tout checker, l’entretien complet, les pneus, les feux… En bref, une préparation optimale pour que la voiture puisse délivrer ses meilleures performances. L’Audit sémantique, c’est la qualité et l’expérience du pilote, la qualité de conduite en quelque sorte et le netlinking correspond au carburant qui permet de propulser notre véhicule.
Tu maîtrises parfaitement les trois piliers du seo, peux-tu nous détailler à quoi correspond un audit technique ?
Dans le principe et dans ses objectifs, un audit technique permet de détecter les facteurs bloquants et les marges d’amélioration sur un site. L’idée c’est de préparer les fondations du site dans le but d’être référencé au mieux, afin que Google puisse lire notre site de façon optimale. On prémâche le travail pour les robots de Google.
Quand les robots de Google passent sur nos pages, il faut qu’ils parviennent à les analyser dans les meilleures conditions, c’est-à-dire tout comprendre et ce, le plus vite possible. Par exemple, le robot de Google arrive sur un site lit les différentes pages en suivant les liens les uns après les autres. Puis il les stocks dans sa base de données et enfin donne un classement à chaque page lue. Tout se déroule donc à chaque fois en trois phases ;
- La lecture, c’est ce qu’on appelle le crawl.
- Le stockage, ou l’indexation.
- Et enfin le classement, ou le positionnement de la page, lié aux requêtes des internautes.
La dernière partie est intimement liée à la sémantique de la page. Mais pour que l’algorithme puisse en arriver là, il faut qu’en amont il puisse déjà bien crawler le site et l’indexer.
Et dans la pratique, ça donne quoi par exemple ?
Il y a plusieurs facteurs à vérifier constamment. La structure du site, est-ce que le maillage est bon ? Les balises par exemple. L’adaptation d’un site aux mobiles (les pages sont-elles responsive ?). Ou les performances de chargement d’une page. Est-ce que les pages sont facilement accessibles ou non ? Et attention aux pages orphelines ! Pour éviter ça, on va privilégier le maillage interne, c’est-à-dire les liens en interne, des pages du site les unes vers les autres, afin de faciliter le crawl, la lecture.
Pour certains de ces facteurs à vérifier, on va utiliser des logiciels et comme on veut sortir un travail complet, on n’hésite pas à user de logiciels qui font doublon sous certains aspects. Cela nous permet de croiser nos informations, de doubler la sécurité sur le travail.
Pour d’autres facteurs, ça se passe à l’œil nu.
Il faut constamment vérifier ces facteurs mais est-ce nécessaire qu’une seule fois ?
Ah non ! Dans l’internet, rien n’est jamais figé. Les sites web évoluent et Google fait évoluer ses algorithmes régulièrement. Par exemple, à partir du mois de mai 2021, Google a promis d’apporter un soin plus particulier à l’expérience utilisateur (l’UX) pour affiner son classement. On ne sait pas à quel coefficient l’UX va être intégrée, mais on sait déjà qu’il va falloir adapter notre travail d’audit technique à cette nouvelle donnée de référencement.
Dans un autre registre, on va aussi checker le linking externe, la qualité des liens entrants qui peuvent être assimilés à du spam, vérifier la réputation de tous ces liens, parfois payés par la concurrence pour nuire à la réputation (notoriété) de notre site auprès des robots de Google.
La concurrence dans le SEO et le sabotage est fréquent ?
Bien sûr. Même si c’est moins le cas aujourd’hui que par le passé, Google ayant amélioré son analyse sur ce point. Mais dans ce travail constant de veille technique sur un site, on va vérifier les éventuelles baisses de visibilité pour duplication, pour qualité du contenu (ou taux de similarité élevé), pour abus de liens, en fonction des mises à jour régulières des algorithmes, pour éviter de perdre des positions attribuées jusque là. Comme tu le vois, l’audit technique est donc extrêmement lié à l’audit sémantique et au netlinking.
Tu parles d’abus de liens. Qu’est ce que c’est ?
Dans les faits, Google demande à ce que les liens posés sur un site ou vers un site soient des liens naturels. Il faut donc poser ces liens avec intelligence, de façon à gagner en crédibilité auprès des algorithmes. Mais dans le cas où Google considère que ces liens sont trop nombreux sur une courte durée ou pas en rapport avec le sujet traité, il peut sanctionner le site. Généralement les sanctions sont de deux types ;
- Les sanctions dites manuelles, que l’on peut retrouver facilement via la console Google Search ;
- Et les sanctions algorithmiques, qui demandent un vrai travail de recherche et une veille technique constante.
Il faut faire des vérifications techniques fréquentes et retourner analyser l’intégralité de la structure du site, sa performance, détecter les erreurs, etc. On adapte aussi tout ce travail au site que l’on optimise, à sa taille, à son objectif premier.
Y a-t-il une logique d’agence ou un fonctionnement selon une logique individuelle ?
Le fait est que l’on utilise de nombreux logiciels, y compris en doublon comme je le précisais tout à l’heure, pour croiser les données, tout vérifier techniquement. Mais la trame est la même pour l’ensemble de l’agence. On n’oublie pas que la spécialité de l’agence est de travailler sur des requêtes très concurrentielles et ROIste, d’où l’intérêt de fournir un travail complet.
Avec la bonne méthode, l’audit technique est passionnant et en constante évolution. Chez 99 Digital, la performance est au cœur de notre stratégie pour permettre à nos clients d’atteindre leurs objectifs et plus encore.