Bonjour a tou.te.s, je suis le fondateur de www.ethicadvisor.org et nous avons plus de 700 000 pages potentiellement indexables par les googles bots. Nous avions une bonne croissance naturelle SEO, mais depuis décembre, pleins de messages d’erreurs des google bots et une indexation et des visites SEO en chute libre malgré toutes les tentatives de modifs des structures pages que nous avons faits… on a bien sur pas beaucoup de budget, mais ce sujet est vital pour nous… auriez vous des contacts/outils a recommander pour essayer de comprendre d’où viennent le problème et comment les adresser ??
Peux-tu nous en dire plus sur les erreurs d’indexation ? Quels sont les messages d’erreurs que tu as dans GSC ?
Est-ce que vous avez réalisé un audit technique avec semrush ou autre ?
Pour info, il y a eu une màj majeur de google en décembre 2020
Normalement ça n’a pas d’impact pour le google bot mais pourquoi avoir désactivé l’indexation par AhrefsBot du dossier racine ? https://www.ethicadvisor.org/robots.txt
J’ai l’impression que cette indication empêche aussi l’analyse de semrush. Possible d’autoriser l’indexation du site pour tous les robots (hors dossier d’adminisation) ?
De soulager le serveur en évitant que les ressources soient utilisées pour autre chose que les internautes et les moteurs majeurs
Je t’avoue je suis septique quant à l’intérêt de bloquer un bot pour améliorer les perfs de son serveur. Est-ce que tu aurais u retour d’expérience à partager ?
« D’éviter de nourrir les outils d’analyse dans le but de rester sous le radar et ne pas donner trop d’infos à ceux qui ne font qu’une recherche rapide. »
Je ne comprends pas bien l’intérêt de ce point non plus
Je viens aussi de regarder brièvement ton site: je pense qu’au-delà des erreurs GSC, tu as des gros soucis on-page qui expliquent ton souci. On en parlera en DM