Comment vérifier quelles pages sont indexées par Google ?

Comment vérifier quelles pages sont indexées par Google ?

 » height= »251″ src=’https://www.nichepursuits.com/wp-content/uploads/2022/01/Copy-of-NichePursuits-Template_7-490×306.png’ width= »403″>

Savoir vérifier quelles pages sont indexées par Google est un processus nécessaire lors de la réalisation d'un audit de site.

L'indexation est la façon dont Google vous « permet » d'apparaître dans les résultats de recherche, ou même sur les résultats de Google Discover. Si vos pages ne sont pas indexées, vous n'apparaîtrez pas et vous n'obtiendrez pas de trafic organique.

Cependant, toutes les pages ne seront pas indexées, et vous ne vous en rendrez compte qu'après avoir vérifié.

Et dans cet article, je vais vous montrer comment et vous donner quelques conseils sur la façon d'indexer les pages plus facilement.

Comment vérifier quelles pages sont indexées par Google?

Vous trouverez ci-dessous trois façons de savoir quelles pages sont indexées.

Console de recherche Google

Il existe deux manières de vérifier quelles pages figurent sur l'index Google à l'aide de G oogle Search Console;

Utilisation de l'inspection d'URL

Si vous avez quelques articles sur votre site ou que vous avez récemment publié des articles et que vous souhaitez vérifier s'ils sont indexés, vous pouvez utiliser l'inspection d'URL comme indiqué ci-dessous.

Il vous suffit de saisir l'URL de la page dans la zone de recherche et cliquez sur Entrée. Si la page est indexée, vous recevrez la notification suivante.

S'il n'est pas indexé, vous recevrez la notification suivante.

Comme vous pouvez le voir ci-dessus, la page a été découverte mais pas indexée. Je venais de publier cet article. C'est pourquoi il n'a pas été indexé. Vous pouvez attendre quelques jours que Google indexe automatiquement la page ou demande l'indexation. Mais on ne sait pas combien de temps cela prendra.

Utilisation de la fonction de couverture

Sur le côté gauche de la console Google, vous verrez la section Index, qui contient la couverture, les plans du site et les suppressions. Cliquez sur Couverture, et il affichera le nombre total de pages indexées étiquetées comme valides.

Les pages qui ne sont pas indexées sont étiquetées comme exclues. Et vous verrez également les pages avec des erreurs. Vous trouverez ci-dessous un exemple de l'apparence de la page;

La bonne chose à propos de la fonction de couverture est qu'elle vous indique pourquoi exactement les pages ne sont pas indexées. Par exemple, vous pouvez obtenir une réponse indiquant que l'URL n'est pas sur Google et une balise Sitemap: N/A sur la couverture, ce qui signifie que la page peut être indexée, mais qu'elle ne figure pas sur le sitemap XML.

Robot.txt et les problèmes canoniques sont également affichés dans la section Couverture, mais je discuterai de ce qu'il faut faire à leur sujet plus tard dans l'article.

Requête sur le site Google

C'est un autre moyen simple de vérifier les pages indexées. Accédez à la recherche Google et entrez site:votredomaine.com. Par exemple, si votre site Web est ilovegardening.com, vous entrerez sitse:ilovegardening.com, et vous obtiendrez une liste complète de toutes les pages indexées. Voici à quoi ressemblerait la page;

Vous pouvez également affiner la recherche en ajoutant plus de paramètres à la commande. Voici quelques-uns d'entre eux;

La phrase de choix du site:mywebsite.com – Cette commande permet de trouver toutes les pages indexées sur votre site qui ont une phrase spécifique

Site: monsiteweb.com inurl:Phrase de choix – Contrairement à la commande précédente, cette commande trouve toutes les pages indexées avec une phrase spécifique dans l'URL.

  • Site:mywebsite.com intitle:Phrase – Cette commande mettra en évidence toutes les pages indexées avec une phrase spécifique dans le titre.
  • Utilisation des vérificateurs de pages indexées Google

    Il existe plusieurs outils qui peuvent vous aider à trouver les pages indexées plus efficacement. Ces outils incluent;

    Northcutt – Cet outil est assez simple. Entrez simplement l'URL et il vous indiquera toutes les pages indexées sur votre site Web. Si vous connaissez le nombre total de pages de votre site, vous pouvez soustraire les pages indexées pour découvrir celles qui ne le sont pas. Malheureusement, vous ne pouvez pas effectuer d'analyses supplémentaires pour identifier les pages qui ne sont pas indexées.

    Petit référencement Outils – Small SEO Tools est une collection de divers outils tels qu'un vérificateur de plagiat, un âge de domaine vérificateur, un vérificateur de grammaire et un vérificateur de pages indexées. Cela fonctionne très bien pour les petits sites car il ne vous permet de vérifier que 5 pages à la fois.

    Le processus d'exploration

    Lorsque vous recherchez un requête sur Google, il faut moins d'une seconde pour obtenir les résultats. Mais beaucoup de choses se passent en arrière-plan, ce qui peut aider un propriétaire de site Web à augmenter ses chances d'être indexé et d'apparaître dans les résultats de recherche. Pour comprendre comment tout cela fonctionne, définissons d'abord certains des termes les plus couramment utilisés;

    Crawling – Il s'agit du processus de recherche de pages Web pour identifier le contenu sur et trouver plus de pages grâce aux hyperliens dans les pages identifiées.

    Index – C'est une sorte de répertoire qui stocke les pages explorées avec succès. Le processus d'enregistrement des pages Web dans un index est appelé indexation. Et lorsqu'un utilisateur tape une requête sur Google, les résultats sont dérivés de l'index.

    Araignée Web – C'est le logiciel responsable du processus d'exploration. Chaque moteur de recherche a sa propre araignée. L'araignée Web de Google est connue sous le nom de Googlebot ou Goggle Crawler.

    Taux d'exploration –

    C'est le nombre de requêtes que le bot Google peut effectuer sur votre site en une seconde.

    Demande d'exploration – Cette métrique mesure combien de robots Google veulent explorer votre site. Il est déterminé par la popularité de votre site, car les URL les plus populaires sont souvent explorées. Google explore également souvent les sites pour éviter l'obsolescence.

    Budget d'exploration – c'est le nombre de pages que les robots de Google peuvent explorer et indexer au cours d'une certaine période.

    Comment ça fonctionne

    Ainsi, lorsqu'un utilisateur saisit une requête sur Google, le bot Google explore toutes les pages de l'index et utilise les liens de ces pages pour trouver des pages plus pertinentes. Ce processus se poursuit jusqu'à ce qu'il y ait des milliards de pages. Google filtre ensuite ces pages en les interrogeant en fonction de leur pertinence pour vous donner la meilleure réponse à votre question.

    Certains des paramètres que le Googlebot vérifie incluent le classement de la page, la qualité du site Web, le placement des mots clés et le nombre de sites Web renvoyant à cette page.

    Le résultat sera tous les sites qui répondent à la requête de l'utilisateur, l'URL de la page et un court extrait qui les aidera à décider quelle page ils doivent choisir.

    Ils obtiennent également plusieurs recherches connexes qu'ils peuvent essayer, et vous, en tant que propriétaire du site Web, pouvez utiliser ces recherches connexes pour trouver plus de requêtes susceptibles d'intéresser votre public.

    Le processus d'exploration de Google est gratuit et principalement automatique. Vous n'êtes pas tenu de payer quoi que ce soit pour que votre site soit exploré ou classé. Tout ce que vous avez à faire est de soumettre le plan de site XML de votre site et de vous assurer que votre site respecte les directives de Google pour les webmasters.

    Comme je l'ai mentionné précédemment, vous pouvez également demander l'exploration en demandant l'indexation. Bien sûr, vous pouvez trouver des annonces classées au-dessus d'autres contenus, mais même les annonces sont diffusées en fonction de leur pertinence et non du montant payé par l'annonceur.

    Pourquoi Google n'indexe-t-il pas votre site

    Maintenant que nous savons comment fonctionne l'indexation, voyons pourquoi vos pages peuvent ne pas être indexées.

    Vous n'avez pas soumis votre plan du site

    Comme mentionné précédemment, vous devez soumettre votre fichier sitemap.xml pour que Google explore votre site Web. Il est facile d'oublier ce processus, surtout avec votre premier site Web. Ou vous l'avez peut-être soumis, mais il y a eu une erreur et vous ne vous en êtes pas rendu compte.

    Dans tous les cas, si Google n'indexe pas vos pages des mois après les avoir créées, la première chose devrait être de vérifier et de soumettre à nouveau le plan du site de votre site, ce qui est facile à faire, en particulier pour les sites Web WordPress. Tout ce que vous avez à faire est d'installer le plugin Yoast SEO, qui crée automatiquement le fichier de plan du site. Les plans du site sont activés. Ensuite, tapez ceci: https://votredomaine.com/sitemap_index.xml ou https://votredomaine.com/sitemap.xml dans la zone de recherche Google, et vous devriez voir le plan du site de votre site. Ensuite, copiez cette URL et soumettez-la dans Google Search Console – Sitemaps. Et c'est tout.

    En plus de soumettre votre plan du site, vous devez également vous assurer que toutes les pages sont indexées. Alors que Google peut facilement trouver toutes les pages qui doivent être indexées, vous pouvez le rendre encore plus facile en ajoutant toutes les pages qui ne figurent pas sur le plan du site.

    Erreurs d'exploration

    Si vos pages ne sont pas indexées, il peut y avoir des erreurs de crawl. Le robot d'exploration de Google explore souvent un site pour vérifier si les pages ont changé ou s'il y a du nouveau contenu publié. Mais cela ne réussit pas toujours en raison d'erreurs DNS, d'erreurs de serveur, d'erreurs d'URL, de robot.txt et de nombreuses autres erreurs.

    Vous pouvez inspecter la santé de l'exploration de votre site Web en accédant à Paramètres. – Statistiques d'exploration, comme indiqué ci-dessous.

    Ici, vous obtiendrez le nombre total d'explorations au cours d'une certaine période, le temps de réponse moyen et la taille totale du téléchargement. Vous pouvez ensuite recouper les résultats sur cette page avec la documentation sur cette page pour trouver un moyen de les corriger.

    Robot.txt ou balises Noindex bloquant certaines pages

    L'une des erreurs d'exploration que vous pouvez rencontrer est un fichier Robot.txt bloquant certaines pages. Dans la plupart des cas, le blocage est effectué intentionnellement lorsque vous souhaitez demander aux Crawlers de Google de ne pas indexer une page. Mais il existe des cas où il bloque des pages que vous devez indexer à l'aide de la balise «noindex» ou des extraits de code suivants.

    Les balises Noindex apparaissent également dans les balises méta de votre site. Par conséquent, vous avez besoin d'un audit de site Web approfondi pour vous assurer que les pages dont vous avez besoin d'être indexées ne sont pas bloquées.

    Vous pouvez obtenir ces informations à partir de la section Couverture de GSC, en utilisant un audit de site outil comme ahrefs, ou en vérifiant manuellement le code de votre site et le fichier robot.txt. Et les supprimer n'est pas si compliqué non plus. Une fois que vous avez trouvé ces balises, supprimez-les simplement manuellement du fichier et Google commencera à explorer ces pages.

    Contenu en double

    Si plusieurs pages de votre site renvoient un contenu similaire lors du crawl, vos pages risquent de ne pas être indexées. Certaines des raisons pour lesquelles vous avez des pages en double incluent:

  • Avoir différentes versions d'un site Web. Par exemple, un avec un préfixe www et un sans le préfixe. Il en va de même pour HTTP et HTTPS.
  • variantes d'URL

    Quelqu'un vole votre contenu et le republie sur ses sites.

    Vous pouvez éliminer le contenu en double des manières suivantes;

    • Vous peut supprimer les pages en double si elles sont faciles à trouver et n'ajoutent aucune valeur à la page principale.
    • 301 Redirection – Les redirections 301 font partie des meilleures pratiques de référencement. Si vous ne pouvez pas supprimer les pages en double, redirigez-les vers la page principale. Cela élimine le contenu en double et améliore la pertinence de la page, ce qui pourrait potentiellement améliorer le classement.

    • Attribuez un noindex, suivez la balise – Vous vous souvenez du fichier robot.txt que j'ai mentionné plus tôt? C'est ainsi que vous dites manuellement aux robots d'exploration de Google de ne pas indexer une page. Vous pouvez attribuer le noindex, suivre la balise à tout le contenu en double et quitter la page principale qui doit être indexée.
    • Rel= »canonical » – Cette fonctionnalité vous permet de dire aux robots que certaines pages sont réelles les doublons de la page principale, et tout le pouvoir de classement des pages devrait aller à la page principale. En tant que tel, vous attribuerez le Rel= »canonical » à chaque page en double et placerez l'URL de la page principale dans la balise.

      Attribuez une URL préférée sur GSC et bloquez les URL qui ne doivent pas être explorées ou indexées.

        Attribuer un auto -referential rel=canonical à la page principale pour empêcher les scrapers de voler votre contenu.

      Vitesse du site

      Selon cette étude, la vitesse de chargement d'un site affecte la fréquence à laquelle Googlebot explore votre site. Vous voudriez que Google explore votre site souvent si vous mettez constamment à jour le contenu de votre site.

      Mais si une page met plus de 3 secondes à se charger ou ne se charge pas du tout, Googlebot aura un problème pour l'indexer.

      De plus, si les pages prennent trop de temps à charger, Google Crawler peut n'indexer que quelques pages de votre site pendant que vous en avez besoin pour explorer et indexer plus de pages. La vitesse du site est également connue pour affecter le classement général, les sites lents étant moins bien classés que les sites rapides. Google a même publié une mise à jour de base basée sur Core Web Vitals en juin 2021.

      Paramètres de confidentialité et fichiers .htaccess

      Pour ceux qui ont des sites WordPress, la modification des paramètres de confidentialité peut également affecter l'exploration et l'indexation. Pour éliminer ce problème, connectez-vous à votre panneau d'administration WordPress, puis accédez à Paramètres – Confidentialité et assurez-vous qu'il est désactivé.

      D'autre part, les fichiers .htaccess aident avec SSI, Mod_Rewrites, Hotlink Protection, Browser Caching et d'autres fonctions sur le serveur. Mais ce fichier peut également affecter la vitesse du site et interférer avec le processus d'exploration.

      Votre site a été pénalisé

      Si vous ne suivez pas les directives de Google Webmaster, votre site perdra des revenus, du trafic, ou pire, vos pages pourront être supprimées de l'index Google. Tant que votre site respecte les directives Google Webmaster, vous n'avez pas à vous soucier des pénalités. Et vous recevrez toujours un avertissement avant qu'ils ne prennent des mesures aussi drastiques.

      Comment faire indexer vos pages par Google

      J'ai souligné à plusieurs reprises que vous pouvez obtenir vos pages indexées rapidement en demandant l'indexation. C'est en soumettant l'URL à l'outil d'inspection d'URL pour vérifier son statut, et vous aurez la possibilité de demander l'indexation. Les autres méthodes que j'ai mentionnées incluent;

      Vérification si les pages sont bloquées par le fichier robot.txt ou les balises noindex

      Élimination du contenu en double

    Correction des erreurs d'exploration et des vitesses de chargement

    Vérification des paramètres de confidentialité et du .htaccess déposer.

  • Resoumission du plan du site
  • Si vous avez fait cela et que vos pages mettent encore trop de temps à être indexées, vous trouverez ci-dessous d'autres astuces que vous pouvez essayer.

    Lien interne

    Comme mentionné précédemment, le processus d'exploration implique de suivre les liens qui se trouvent sur la page. Ainsi, s'il existe des pages «orphelines» ou des pages auxquelles vous n'êtes pas lié, les robots de Google peuvent avoir du mal à trouver et à indexer ces pages.

    Réaliser un audit de site avec des outils comme Ahrefs ou SEMrush peuvent vous aider à identifier le contenu orphelin. Mais si vous souhaitez obtenir des informations plus approfondies sur l'ensemble du processus de liaison interne et empêcher le contenu orphelin, vous devriez essayer Link Whisper.

    Il s'agit d'un outil conçu par Spencer Haws qui aide à suggérer des articles à lier en fonction de la pertinence. Cela aide également si vous commencez par créer des liens à partir de vos pages les plus performantes – les pages que Google explore souvent.

    En plus d'assurer un lien interne sain, vous devez également vous assurer que les liens internes ne sont pas ne suit pas. Pourquoi? Les robots de Google n'explorent pas les liens nofollow. Vous pouvez attribuer une balise nofollow aux liens sortants lorsque vous ne souhaitez pas transférer le PageRank vers un autre site, mais ne le faites pas pour les liens internes.

    Publier de haute qualité Contenu et suppression des pages de mauvaise qualité

    L'indexation n'est pas qu'une question de technique. Vous devez également publier du contenu précieux et utile pour le lecteur.

    Les robots Google analysent d'abord la page pour déterminer si elle sert l'intention de l'utilisateur avant d'analyser les liens sur cette page. S'il s'agit d'une page de mauvaise qualité, elle peut ne pas être indexée et les autres pages vers lesquelles cette page renvoie peuvent ne pas être explorées. Comme mentionné précédemment, Google a un budget d'exploration.

    Si vous avez plusieurs pages de mauvaise qualité sur votre site, vous pouvez épuiser le budget d'exploration avant que les pages pertinentes et de haute qualité ne soient rampé. Mais cela s'applique principalement aux sites avec des milliers de pages.

    En plus de supprimer les pages de mauvaise qualité, vous pouvez également améliorer la vitesse du site, supprimer le contenu en double, corriger ou supprimer les pages avec des erreurs, et améliorer les liens internes (j'ai expliqué comment vous pouvez faire tout cela dans les sections précédentes).

    Autres aspects à faire attention pour inclure les en-têtes, les balises et les sites que vous lié à.

    Liens de retour

    Les sites qui renvoient vers votre site sont également importants. Les backlinks montrent à Google que votre site a plus de valeur, et Googlebot les explorera probablement plus souvent que ceux qui n'en ont pas.

    Partager votre contenu sur les réseaux sociaux est un excellent moyen de faire connaître votre entreprise, d'améliorer les classements, de générer du trafic et des prospects.

    Mais ce que vous ne savez peut-être pas, c'est que le partage de votre contenu crée également des signaux sociaux, ce qui peut aider à inciter les robots d'exploration de Google à explorer et à indexer vos pages. Certains des endroits où vous pouvez publier votre contenu pour accélérer l'indexation incluent:

  • Facebook
  • Twitter
  • Moyen
  • Reddit

    Quora

    Digg

    SlideShare

      LinkedIn

      Comment vérifier quelles pages sont Indexé par Google

      Et voilà. Si votre trafic n'augmente pas comme prévu, ou si vous avez subi une baisse, il est probable que les robots d'exploration de Google rencontrent des difficultés pour explorer et indexer vos pages.

      J'ai détaillé toutes les différentes manières de vérifier quelles pages sont indexées par Google, d'identifier les problèmes d'indexation et de les résoudre.

      N'oubliez pas que ne pas apparaître dans les résultats de recherche Google ne signifie pas que vous' n'est pas indexé. Vous êtes peut-être indexé mais vous êtes classé très bas car votre site manque d'autorité.

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.