facebook

twitter

linkedin

pinterest

youtube

youtube

» » Optimisez l'indexation de vos pages web

Optimisez l'indexation de vos pages web

  << Revenir aux actualités

 

 

 

Règles d'indexation : Balise Noindex et fichier Robots.txt
Référencement de votre site e-commerce ou vitrine

 

 

C'est quoi l'indexation d'un site internet ?

L’indexation d’un site internet est son enregistrement dans la base de données d’un moteur de recherche tels que Google, Bing, Yahoo…
 

L’indexation est l’action du moteur de recherche de répertorier et de classer les pages web accessibles avant de pouvoir les faire ressortir dans les pages de résultats en fonction d’une requête donnée.
 

L’indexation par le moteur de recherche Google peut se faire par un passage des robots sur le site web de « manière naturelle » ou par une inscription à la Google Search Console.

 

 

 

Comment mettre en place des règles d'indexation avec Shop Application ?

Dans votre interface d'administration Shop Application, vous avez accès à une page vous permettant de paramétrer les règles d'indexation en vous rendant à l'onglet "Informations" > "Outils" > "Règles d'indexation".

 

Cette page vous permet de définir des règles pour l'indexation des différentes pages de votre site internet dans les moteurs de recherche.

Vous disposez ainsi de deux outils pour établir ces règles :

- La possibilité d'ajouter une balise META "noindex" sur les pages que vous souhaitez
- La possibilité de personnaliser votre fichier Robots.txt
 

La balise META noindex et le fichier Robots.txt permettent d'indiquer aux robots des moteurs de recherche, les pages de votre site web à ne pas indexer, c'est-à-dire que les pages ne doivent pas figurer dans les pages de résultats des moteurs de recherche.

 

Ces outils sont à manier avec précaution et destinés aux personnes expérimentées.

 

 

 

Pourquoi bloquer l'indexation d'une page ou d'une partie de votre site web ?

Les moteurs de recherche favorisent de plus en plus les contenus pertinents pour les internautes. Il est donc conseillé de ne pas laisser les moteurs de recherche indexer toutes les pages d’un site web, notamment celles de faible qualité ou ayant peu d'intérêt pour les internautes.

 

Budget de crawl

On va alors parler d’optimisation de budget de crawl, c’est-à-dire donner l’accès à l’indexation de vos pages les plus utiles et ne pas faire perdre du temps aux moteurs sur des pages web moins pertinentes. De cette manière les moteurs de recherche détecteront plus facilement les ajouts et modifications sur le site web et permettront ainsi une meilleure prise en compte des optimisations en référencement naturel (SEO).

 

C'est le cas par exemple des pages "Mon compte", "Mon panier", "Connexion" ou bien encore "La recherche interne" d’un site ecommerce ou vitrine.

 

Cette pratique permet également d’éviter la duplication de contenu en bloquant l’indexation de certaines pages.

 

 

 

La balise meta noindex

Grâce à cette balise meta noindex, si votre page est indexée, elle sera ainsi supprimée de l'index (la base de données) des moteurs de recherche, elle ne s'affichera donc plus dans les pages de résultats de recherche.

 

C'est le cas par exemple des pages web "Mon compte", "Mon panier", ... C'est pourquoi ces pages ont une balise META "noindex" par défaut.
 

Néanmoins, vous pouvez supprimer cette balise noindex, ou encore en ajouter sur d'autres pages de votre site web, grâce au champ comme ci-dessous.

 

 

 

 

 

La personnalisation du fichier robots.txt 

Le fichier robots.txt est un autre outil afin de maîtriser l’indexation de vos pages, dans le cas où la page n'a pas été indexée et que vous ne souhaitez pas qu'elle le soit. Il vous permet de restreindre l’accès à certaines pages ou certaines parties de votre site web.