Génération de clicks dans Google

Hello la communauté,

J’ai eu récemment une demande relativement non conventionnelle pour growthacker … google.

Je m’amuse déjà pas mal avec notre site de petites annonces préférés, mais là, ça m’a l’air d’être un tout autre morceau :sweat_smile:

La demande : générer des clicks avec un bot sur des Noms de Domaines précis, pour certains mots clés.
Pourquoi ? L’augmentation des clicks = augmentation du page rank = meilleures positions.

Générer des clicks, ne me pose pas de soucis. C’est juste ne pas se faire détecter comme un bot par Google qui me semble plus complexe.

Est ce que certains d’entre vous ont déjà eu ce genre de demande et essayé (avec succès ou non) de manipuler les SERP de cette manière ?

C’est très clairement du blackhat SEO et je me demandais si certains avaient des retours d’expérience sur ce type de sujet.

Heu c’est pas la définition même du SEO ça ? :sweat_smile:

4 « J'aime »

Je me rends compte que j’ai été assez imprécis :
Il s’agit de générer des faux clicks pour mieux ranker.

1 « J'aime »

Hello,

J’ai essayé de développer ce genre de chose, même si à priori, l’impact est faible, j’ai utilisé l’approche suivante :

  • Changer de useragent / Ip / etc. == Changer d’identité à chaque fois, mais revenir parfois avec d’ancienne identité.
  • Google est capable de tracker onscreen comme le fait hotjar : faire bouger le curseur de manière humaine (courbures, etc.), réaliser des cliques random à certain moment, suivre le texte de certaines métadescriptions pour mimiquer quelqu’un qui voudrait lire.
  • Visiter aussi les autres sites, garder un pourcentage random pour les autres tout en gardant le site cible plus important.
  • Changer de referer, lorsque la requête est tapé en haut et surtout éviter à tout prix les captcha, si il y a un nombre anormal de captcha sur une requête, c’est mort, donc bien choisir ses ip, bien traiter les captcha manuellement s’ils surviennent pour ne pas laisser de doute.
  • Faire augmenter le trafic progressivement et en continue : tu ne peux pas te permettre d’y aller fort dès le début, tu ne peux pas non plus te permettre de couper la machine durant le week-end, d’ailleurs je me demande même si tu peux l’arrêter un jour sans que ça impact le résultat obtenu == En gros, ne laisse aucune footprint un peu bête qui pourrait permettre à google d’identifier la supercherie
  • Prier à chaque maj que ton site soit toujours dans l’index :slight_smile:

Bref, c’est un sacré chantier, j’ai vite abandonné vu le ratio travail/risque/récompense

1 « J'aime »

hello il s’agit d’un tool comme ca https://upseo.io/ ?

Tu as deux stratégies gagnantes avec Google :

  • Whitehat : contenus + liens
  • Blackhat : contenus générés + domaines expirés

Dans les deux cas ça paye bien plus que d’essayer de jouer sur ton CTR artificiellement.

3 « J'aime »

Hello à tous,

@Torx Merci pour tes retours. J’ai effectivement pensé à tout ce qui est comportement d’un vrai user agent.
Ce que j’ai du mal à évaluer, c’est le coût en proxy VS le gain de trafic. Difficilement évaluable.

@Kev1 : Apparement ce serait quelque chose comme ça. Je trouve beaucoup de plainte au sujet de la gestion des paiement et des annulations. Mais personne ne fait de retour sur le gain de positions.
Je suppose que les gens arrêtent car ils ne constatent rien de positif. Tu as essayé ?

@rmaz
Je découvre tout ça avec ce client. :slight_smile: (Qui utilise les 2nds techniques). A voir pour le CTR.

Hello @vincen non j’ai pas tester je suis tombé dessus l’autre fois mais bon vu que c’est un peu obscur … j’ai pas voulu test sur un site perso.

Camillebesse fait sûrement de l’humour

Pourquoi ? L’augmentation des clicks = augmentation du page rank = meilleures positions.

c’est un peu « old » comme raccourci non ? (en plus, tu parles de pagerank :upside_down_face:). Il y a quelques années, ca marchait « bien ». Mais maintenant , c’est comme si tu es prêt à perdre ton site lors de n’importe quelle prochaine update de google.

Google a quand meme un outil (recaptcha) qui permet d’estimer sur la personne qui visite la page est un bot ou non. Donc si Google dépense plusieurs millions de $$ pour ca, je doute que Google ne soit pas en mesure de détecter des bots qui simulent les click des SERP

Utilise plutot la méthode BlackHat des PBNs et des domaines expirés, tu as moins de chance de te faire griller

1 « J'aime »

Hello Rmaz
Qu’entends tu par contenus générés + domaines expirés ?
Merci !

En gros tu vas forcer Google à indexer plusieurs milliers de pages avec du contenu auto généré, tu as plusieurs solutions payantes comme BHM generator ou tu peux le faire toi-même. Le fait de prendre un domaine expiré va permettre de récupérer l’antériorité du domaine (les backlinks) et de profiter d’une indexation plus rapide et prendre des places dans les premières pages.

Cette technique fonctionne bien à partir du moment ou tu sais industrialiser le processus et marche fort sur des requêtes en longue traîne.

BHM generator mais également WP Automatic, Page Pro Generator…et quelques autres tools

Hello @Felix, que veux tu dire par « perdre ton site » ?

Si google détecte que tu « fraudes », il mettra ton site aux oubliettes et n’apparaitra pas dans les résultats de recherche.
Ton site sera toujours en ligne, mais avec peu/pas de traffic naturel venant de google

Donc si tu appliques le même processus à tes concurrents, ils seront sanctionnés par Google ?

Pourquoi ? L’augmentation des clicks = augmentation du page rank = meilleures positions.

L’impact d’une telle méthode (augmenter le CTR ) est très difficile a monter / tout les test que j’ai vu/lu à ce sujet disent que l’impact est tres faible

Et a priori faut passer par des IP géolocalisé , et sur des IP de client de FAI .

Il y’a une boite en Espagne (dont j’ai oublié le nom mais Google est ton amis… ) , qui proposai ce type de manipulation du CTR, leurs idées était de placer un boitier connecté chez des personnes « volontaire » et de simuler les requêtes sur google …

Tu pouvais acheter des box genre SerpX à l’époque, pour générer des faux clics assez efficacement. Mais ça fait bien longtemps que ça ne marche plus.

Le « page rank » c’est autre chose.
C’est ce qu’on appelait une dizaine d’année le « PR » un algorythme que google a propablement conservé mais dont les scores ne sont désormais plus public. Le PR était fixé par rapport au nombre de backlink que les sites recevait.

J’ai déjà vu un projet passer avec le sujet similaire.
Pour que ça soit viable il faut réussir à rendre automatique :

  • le changement d’adresse IP
  • vider le cache/cookies
  • avoir des temps de visites différents
  • avoir des navigations aléatoire sur au moins 2 ou 3 pages du site (car 1000 clics sur une seul page ne constituera plus un critère suffisant pour être un signal de qualité).

Donc faut plusieurs ordinateurs, être capable de gérer le changement d’adresse IP avec une ou plusieurs solutions VPN (en veillant à éviter les adresses IP en doublons), puis automatiser des scénarios de navigations différents.

On est tous d’accord, c’est même pas du « grey hat » … on baigne là totalement dans le « black hat ».

Pour finir, nous n’avons pas la garantie du résultat … donc ça demande un effort de taré sans savoir si ça fonctionnera ! et si ça fonctionne, combien de temps cela tiendra.

L’idée de ces mécanismes m’est venu autour d’une histoire entendu. Clairement : je prendrai pas le risque de perdre autant de temps sans garanti de résultat. Par contre le sujet m’intéresse à fond, donc je vais suivre ce fil par curiosité et avec plaisir :slight_smile:

La génération de clics via Google ne fonctionne plus depuis lgtps. Par contre la simulation de traffic pour berner Google Analytics est toujours une méthode (très) rentable pour ranker. Entre autres…