Aucune idée d’où ça peut venir, mais si tu veux vraiment les bloquer tu peux mettre un contrôle d’accès au site : à chaque requête d’un user web, récupération de son IP et tu détermines le pays à partir de celle-ci, par exemple avec cette API.
Il te suffit de rediriger sur une page « ce site n’est pas accessible dans votre pays ».
Mais il existe surement des solutions toutes faites qui permettent de faire tout ça d’un coup, une petite recherche google semble suggérer que ça existe.
Ce n’était pas la métric la plus adapté, j’aurais du partager cela :
Plus de 30% de mon trafic est complètement faux, je ne trouve pas cela normal et surtout je souhaiterais stopper cela.
J’ai déjà mis en place une vue pour les retirer de mes stats mais je souhaiterais qu’ils n’aient plus accès à mon site.
Apres l’avoir installé, tu seras surpris au bout de quelques semaines de voir dans les stats le nombre de bot et/ou tentatives de pirates qu’ils arrivent à bloquer automatiquement
Ce report est basée sur l’adresse IP essentiellement et la consultation de banques de données de geolocalisation par Google. Et il y a déjà les problématiques de VPN, routeur wifi, etc. AOL à une époque lointaine avait toutes ses IPs basées aux US.
Mais 30% c’est bcp si ce n’est pas ton marché.
Ce serait intéressant d’ajouter une dimension secondaire par catégorie d’appareil (device), réseau ou fournisseur de services pour voir si tu trouves une ‹ pattern ›.
Je ne pense pas que ce soit le cas mais anonymise tu par ailleurs les IPs envoyées à Google? Auquel cas les 3 derniers chiffres de l’adresse ne sont pas envoyées aux serveurs, ce qui rend plus difficile l’identification de la localisation de l’utilisateur.
Merci de m’avoir éclairé, je n’avais même pas pensé à ajouter ces dimensions secondaires.
Pour le device, cela ne m’a pas plus avancé, le fournisseur d’accès non plus (trop sont en « not set »)
Par contre pour le fournisseur de service, cela est plus intéressant mais je ne suis pas plus avancé…
Est-ce que tu as modifié tes paramètres sur Google Analytics afin d’inclure exclusivement ton hostname ? Cela permet de nettoyer les spams également. Petit article searchengineland sur le sujet
et aussi un controle des referer pour voir si tu as spas des span referer (site qu’il veulent afficher leur service en simulant une visite sur ton site)
voici un article qui sera peut-être plus explicite sur la manip’ sur le filtrage du nom d’hôte.
Conseil, créer une vue test (si ce n’est pas déjà existant) pour tester la manip’. Filtrer 1 à 1 tous les sites spammy va te demander trop de temps
Pourquoi ce trafic te gêne ?
Sinon, mieux que cloudflare à mon avis: bunnycdn
Si tu es sur wordpress, tu peux aussi, via all in one seo, empêcher les bad robots
J’ai déjà connu ce type de traffic avec Prestashop. En effet lorsque tu achètes un template sur Themeforest ou un module et qu’il y a un bug, tu fais appel au développeur afin qu’il règle la situation. La plupart du temps, ces Dev sont situé en Inde ou dans les pays de l’Est. Des tests sont pratiqués sur le site. Ce qui peut expliqué le traffic.
Sinon, il y a aussi un deuxième cas à prendre en compte: lorsque tu testes la rapidité de ton site avec Dareboost, Google Page Speed, etc., les serveurs se trouvent parfois dans les pays de l’Est.
Pour finir, Il se peut aussi que cela soit du hacking commercial: lorsque tu vas sur Google Webmaster Tools, tu peux avoir accès aux entreprises qui visitent ton site. Lorsque tu te rends sur ces sites, ils te proposent de prendre en charge ton SEO pour une somme modique.
Je ne sais pas si j’ai répondu à tes questions mais j’ai essayé de te donner une vision de ces problématiques. A+
le mieux analyse de log et bannissement ip et pays au besoin, tu banni le ips directement sur htaccess. tu peux également utiliser un soft de cloaking sa fait le boulot !