Comment corriger les erreurs de couverture d'index dans la console de recherche Google

Dernière mise à jour le

L'indexation et l'analyse sont deux processus extrêmement importants pour les sites Web et les moteurs de recherche. Pour qu'un site Web apparaisse dans les résultats de la recherche, il doit d'abord être analysé par un moteur de moteur de recherche, puis mis en file d'attente pour l'indexation. En tant que référencement, il est important que votre site Web soit exploré et indexé et qu’il n’y ait aucune erreur susceptible d’affecter l’apparence de votre site Web dans les résultats de recherche.

Google Search Console est le meilleur ami de la communauté SEO. Cela nous permet de soumettre nos sites Web à Google et de les informer de l'existence de notre site Web. C'est l'outil qui nous permet de voir à travers les yeux de Google. Nous pouvons voir immédiatement quelles pages sont affichées dans les résultats de la recherche ou si les modifications ou améliorations que nous avons apportées ont été prises en compte.

L’un des avantages de la console de recherche Google est qu’elle nous indique les erreurs d’indexation susceptibles d’affecter le classement d’un site Web. Le rapport de couverture de la console de recherche vous montrera toutes les pages indexées par Google en fonction du sitemap que vous avez envoyé, ainsi que d’autres pages non soumises dans votre sitemap, mais qui ont été explorées. La correction des erreurs sur ces pages est cruciale.

Une page importante de votre site Web comportant une erreur serait probablement moins bien classée si Google trouvait qu'il était difficile de l'explorer et de l'indexer. C’est pourquoi il est essentiel que vous sachiez quelles sont les erreurs trouvées dans la couverture des index de Search Console et que vous sachiez les corriger.

Erreur de serveur 5xx

5xx Des erreurs se produisent lorsque le serveur d’un site Web ne peut pas traiter ou traiter une demande faite par Google-bot lors de l’exploration de la page. Non seulement cette erreur pose-t-elle des problèmes lors de l'exploration de votre site Web, mais vos utilisateurs aussi ont du mal à accéder à votre site Web.

5xx Les erreurs sont généralement causées par un problème avec votre serveur. Il peut être en panne, surchargé ou mal configuré. Cela pourrait également être dû à un problème lié à la configuration DNS ou au système de gestion de contenu de votre site Web.

Pour résoudre ce problème, il serait préférable de consulter votre développeur Web ou de vérifier si votre hébergement a un problème.

Erreur de redirection

Les redirections sont normales sur n'importe quel site Web. Il est utilisé pour rediriger les anciennes pages ou les publications qui pourraient ne plus être utiles. Il pourrait également être utilisé pour rediriger des URL qui ne sont plus trouvées.

Les URL ne doivent avoir qu'une seule redirection 301. Lorsqu'une URL est redirigée vers une autre URL également redirigée vers une autre, une chaîne de redirection est créée et c'est le problème habituel à l'origine de cette erreur.

Des erreurs de redirection se produisent si une chaîne de redirection est trop longue, qu’il s’agit d’une boucle, qu’elle a atteint la limite de redirection maximale (pour les redirection de Chrome 20), ou que l’une des URL de la chaîne est vide.

Assurez-vous que toutes vos redirections pointent vers des URL actives et utilisez uniquement une redirection 301 une fois pour éviter les chaînes de redirection.

URL soumise bloquée par Robots.txt

Les URL qui sont soumises dans le sitemap de votre site Web indiquent que ces URL sont importantes et qu'elles doivent être explorées et indexées. Si certaines de ces URL sont également bloquées dans votre fichier robots.txt, le bot Google sera source de confusion.

Pour corriger cette erreur, vérifiez d’abord si les URL que vous bloquez sont des pages importantes ou non. Si ces pages sont importantes et sont accidentellement bloquées dans votre fichier robots.txt, mettez-le simplement à jour et supprimez ces URL du fichier. Assurez-vous que ces URL ne sont plus bloquées à l'aide de la commande robots.txt Testeur de l'ancienne version de la console de recherche Google.

Si vous avez délibérément bloqué une URL soumise dans votre sitemap, supprimez cette URL de votre sitemap. Si vous utilisez WordPress, obtenez d’abord la page ou le numéro de l’URL que vous supprimez du plan du site. Pour ce faire, allez à Des postes ou Des pages et cliquez modifier à la publication ou à la page que vous souhaitez supprimer. Vérifiez la barre d'URL et vous verrez l'ID de l'article.

Obtenez cet ID de publication et accédez aux paramètres de votre plan Sitemap. J'utilise Google Sitemaps XML et je le trouve très facile à utiliser. Sous Articles exclus, tu trouveras Postes exclus. Entrez l'ID de publication de celui que vous souhaitez exclure du plan du site et cliquez sur Enregistrer.

URL soumise marquée «noindex»

Cette erreur est similaire à l'URL soumise bloquée par une erreur Robots.txt. Dans la mesure où une URL soumise dans le sitemap signifie que vous souhaitez l'indexer par Google, lui attribuer une balise "noindex" n'a aucun sens.

Vérifiez si ces URL sont des pages importantes. Placer une balise "noindex" signifie que vous ne souhaitez pas que Google affiche ces pages dans les résultats de la recherche. Si un produit ou une page de destination comporte une balise «noindex» accidentelle, c’est une mauvaise nouvelle pour vous.

Si les URL sous-jacentes à l'erreur ne sont plus importantes, supprimez-les du sitemap de la même manière que je l'ai mentionné plus haut.

Si les URL sont importantes, supprimez la balise noindex. Si vous utilisez Yoast SEO, rendez-vous à la Page ou Poster qui est étiqueté comme noindex. Faites défiler la liste jusqu’à ce que vous voyiez la zone Yoast SEO et cliquez sur le bouton Icône d'engrenage.

Assurez-vous que l'option sous Autoriser les moteurs de recherche à afficher ce message dans les résultats de recherche? Devrait être "Oui".

Si vous utilisez SEO Ultimate, le processus lui est similaire. Accédez au message ou à la page, puis faites défiler jusqu'à la case SEO Ultimate. Sous Divers assurez-vous que la case «Noindex» est décochée.

L'URL soumise semble être un Soft 404

Une erreur soft 404 signifie qu'une adresse URL soumise dans votre plan Sitemap n'existe plus, mais renvoie un code de succès ou un code 200. Les erreurs Soft 404 sont à la fois mauvaises pour les utilisateurs et pour le robot Google.

Comme cette page est toujours considérée comme une page, les utilisateurs peuvent voir cette page dans les résultats de la recherche, mais ils ne verront qu'une page vierge. En même temps, cela gaspillera votre budget d'analyse.

Vérifiez les URL que Google considère comme soft 404. Si ces pages ont été supprimées ou inexistantes, assurez-vous qu'elles renvoient une erreur 404 (introuvable). Mais s'ils sont toujours pertinents, utilisez une redirection 301 vers une page en direct.

L'URL soumise renvoie une demande non autorisée (401)

Une erreur 401 se produit lorsqu'une URL soumise doit être explorée par Google mais que celle-ci est considérée comme non autorisée. Cela se produit généralement lorsque les webmasters placent des mesures de sécurité pour les autres robots malveillants ou les spammeurs. Pour corriger cette erreur, vous devez exécuter une Recherche DNS et vérification de Googlebot.

URL soumise non trouvée (404)

Une page qui renvoie une erreur 404 signifie que la page est supprimée ou n'existe pas. La plupart du temps, si vous supprimez un message ou une page, celui-ci est automatiquement supprimé du sitemap. Toutefois, certaines erreurs peuvent survenir et une URL supprimée peut toujours se trouver sur votre sitemap.

Si cette page existe toujours mais a été déplacée vers une autre page, une redirection 301 résoudrait l'erreur. Pour le contenu qui est supprimé définitivement, le laisser en 404 ne pose pas de problème.

Notez que la redirection des pages 404 vers la page d'accueil ou d'autres pages qui n'y sont pas liées pourrait poser problème à la fois aux utilisateurs et à Google.

L'URL soumise a exploré le problème

Les URL soumises qui sont sous cette erreur signifient qu'il existe une erreur non spécifiée qui ne correspond pas aux autres erreurs mentionnées qui empêchent Google d'explorer l'URL.

Utilisez l'outil d'inspection d'URL pour obtenir des informations supplémentaires sur la manière dont Google voit cette page Web et apportez des améliorations à partir de cette page.

Avertissement: Indexé bien que bloqué par Robots.txt

Ce n'est pas une erreur mais un avertissement. C'est la seule catégorie qui tombe sous l'onglet Avertissement du rapport de couverture. Cela se produit lorsqu'une URL est bloquée par Robots.txt est toujours en cours d'indexation par Google.

Généralement, Google respecte le fichier Robots.txt, mais lorsqu'une URL interdite est liée en interne, Google peut toujours analyser cette URL non autorisée.

La balise noindex et le fichier robots.txt ont des utilisations très différentes. Il y a encore des confusions entre eux. Si vous souhaitez supprimer ces URL des résultats de la recherche, supprimez-les du fichier robots.txt afin que Google puisse analyser la balise ‘noindex’. Le fichier robots.txt est plus utilisé pour contrôler votre budget d'analyse.

Clé à emporter

La recherche d’erreurs dans votre console de recherche devrait faire partie de votre routine de référencement. Optimisez toujours toutes vos pages. Assurez-vous que ces pages peuvent être explorées et indexées par Google sans aucun problème. En soumettant un sitemap n'affecte pas directement votre classementCela aidera Google à vous informer des erreurs susceptibles d’avoir une incidence négative sur le classement de votre site Web.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.