J’ai un problème de référencement sur 2 sites de l’un de mes clients, sur des pages de recherche produit avec filtre qui ne sont pas indexés par Google quand un filtre est activé. Je souhaiterais y remédier.
Je vois dans ton robots.txt : https://recyclair.fr/robots.txt que les urls de recherches sont en dissalow, ça vient peut-être de la :
/*fr/search
/*controller=search
/*&search_query=
Et tu devrais créer un sitemap complet (xml), il y a des addons sur presta pour ça, car ton sitemap actuel : https://recyclair.fr/sitemap ne sert à rien.
J’avais pas compris l’histoire des filtres, du coup le problème ne vient pas du robot ni sitemap.
Enfaite GG ne peut pas crawler des résultats de recherche avec filtre, car le bot google visite une page, il ne fait pas d’action sur la page en sélectionnant différents filtres pour récupérer les pages de résultats.
C’est pour ça qu’il faut privilégier les catégories.
Après tu peux forcer le truc en générant les pages de résultats de l’ensemble des combinaisons de filtre possible et en faire un sitemap, mais vu le nombre de filtres, ça ferait des millions de pages. C’est inutile et mauvais pour ton SEO.