Si je vous dis “Masse noire” ? La première image qui vous vient en tête est une matière sombre observée en astrophysique. Et bien vous faites fausse route ! Aussi étonnant que cela soit-il, la masse noire est bien un terme utilisé dans le jargon du marketing digital pour désigner l’ensemble des URL d’un site internet qui sont crawlable et indexable par les robots des moteurs de recherche (Google, Bing, …), mais qui par leur manque de qualité SEO vont tirer le référencement naturel de votre site vers le bas.
Avant d’aller plus loin et de vous exposer les méthodes pour éliminer la masse noire; il est peut-être utile de rappeler ce qu’est le crawl et l’indexation ainsi que le crawl budget.
Pour indexer un site internet, les moteurs de recherche tels que Google utilisent des robots (souvent appelés des bots) pour analyser les pages du site. Ces robots explorent la structure du site et ses contenus pour ensuite lui attribuer un classement dans les pages de résultat. On dit ainsi que le site a été crawlé.
Le temps passé et le volume de pages d’un site analysé par les robots s’appelle le crawl budget; et ce dernier repose sur différents critères déterminés par les moteurs de recherche. Le crawl budget varie d’un site internet à un autre, en fonction du nombre de pages d’un site, du temps de réponse du serveur, de la profondeur du site, de la fréquence de publication des contenus… Tous ces éléments vont déterminer le crawl budget (temps + fréquence de passage du robot).Il faut bien comprendre que les robots ne positionnent pas mieux les sites internet en fonction du nombre de pages mais bien en fonction de la qualité de celui-ci.
Pour rappel, la qualité du contenu d’un site repose sur l’arborescence, l’optimisation des textes avec une sémantique riche (H1, balise…), les méta-descriptions, le maillage interne, les liens externes, les url optimisées, les redirections…
Un des premiers automatismes à adopter pour détecter une masse noire, est de vous doter d’outils qui vous aideront à identifier les optimisations SEO à faire sur votre site internet. Il existe de nombreux outils gratuits ou freemium, toutefois les plus pertinents sont Google Search Console, Semrush et Screaming Frog.
Semrush va analyser les fichiers log de votre site pour identifier la fréquence de passage des robots des moteurs de recherche
Google search console est un outil indispensable dans la détection de masse noire et offre beaucoup d'informations notamment sur le référencement de pages qui comportent des erreurs, des avertissements, des URL exclues. Si les URL apparaissent en erreur ou exclues, il fort probable que ce soit une masse noire.
D’autres indicateurs sont à observer dans google analytics tels que le nombre de visites sur l’ensemble de vos pages. Observez les pages vues et vues uniques, le temps moyen passé sur chaque page, le taux de rebond et les pages de sorties. Les pages qui n’auraient pas reçu de visite sur une longue période sont susceptibles de tirer le SEO de votre site vers le bas.Vous pouvez en conclure que soit votre page manque de performance, soit que son contenu ne plait pas aux internautes.
Grâce aux outils énumérés précédemment et aux données délivrées, vous pourrez donc identifier les pages qui nécessitent des optimisations, des pages qui ne présentent aucun potentiel comme par exemple une page fournisseur, les mentions légales, politique de confidentialité, CGV… mais aussi on trouve souvent les images, les PDF, etc... La bonne pratique est de désindexer ces pages qui ne présentent aucun intérêt pour le référencement naturel de votre site et ainsi optimiser votre crawl budget pour les pages piliers.
Désormais, vous avez toutes les clés en main pour vous lancer dans l’optimisation d’une masse noire.
Pour un accompagnement personnalisé en fonction de vos besoins marketing, n’hésitez pas à faire appel à nos experts.