J’utilise Scrapebox pour collecter des résultats Google mais impossible de dépasser les 500/1000 résultats.
Scrapebox s’arrête alors qu’il existe des centaines et des centaines de pages de résultat Google.
J’utilise la configuration de base de Scrapebox et 10 proxys. Une idée ?
Je me débrouille pour segmenter la requête par grande ville ou région ou prénom…ou couleur…selon ton contexte.
Ca multiplie le nombre de requetes et de résultat
C’est normal, Google ne ressort que max 100 pages de résultats, il faut varier comme explique justement @alexM. Tu peux utiliser l’outil keyword scraper de scrapebox pour générer de la longue traine à partir d’un ou plusieurs keywords.
C’est quoi ta recherche Google (si pas secret) ? On pourra peut-être t’aider.
Oui mais très difficile d’avoir des « Google passed » à partir de la liste des proxy gratuits. Et même si tu arrives à en avoir quelqu’un, ils seront très vite grillés, car utilisés par plusieurs personnes en même temps sur Google.
Bonsoir,
J’ai plusieurs interprétations de ta requete. Parles tu du footprint en général ou es tu en train de réaliser un footprint pour scrapebox.
Je vais le prendre au 1er sens. Comme c’est une requete super générale, je « pourrai » rajouter le nom des villes dans les keywords ou intitle.
On trouve facilement la liste des 100 plus grandes villes, cela ferait 100 requetes sur scrapebox.
intext:“Site web” AND intext:“Laisser un commentaire Annuler la réponse” AND intext:paris
intext:“Site web” AND intext:“Laisser un commentaire Annuler la réponse” AND intext:lyon
intext:“Site web” AND intext:“Laisser un commentaire Annuler la réponse” AND intext:…
sur internet j’ai vu un fichier avec le nom des 36 000 communes françaises.
J’ai utiliser la fonction concatenate sous excel pour générer mes requetes puis j’ai balancé ca sur scrapebox.
Ca geneère beaucoup d’erreurs mais c est par grave
Si tu parles de profondeur de résultats sur une même requête, tu ne dépasseras jamais les 1000. C’est une limite absolue sur Google, et il en a toujours été ainsi.
Mais aujourd’hui cette limite est moindre, et variable selon la requête. Je ne sais pas exactement pourquoi, mais probablement que Google considère que personne n’a besoin d’autant de résultats, ou qu’au delà d’un certain nombre, ils sont trop peu pertinents.
Par ailleurs, plus tu vas aller chercher de résultats en profondeur, plus tu prendras de captchas.
De même si tu utilises des opérateurs de recherche, le nombre de requêtes que Google te laissera faire sera restreint.
Perso, je ne me lancerais pas dans le scrap en profondeur de Google. Trop compliqué, trop cher… mort par avance.