Page jaune scraping maximum

Bonjour,

J’essaye de scrapper avec web scrapper de google pour récupérer facilement des noms et adresses de prospection.

Je suis limité à 10 scraps maximum.

Est-ce normal? Comment passer outre ?

Merci d’avance.

PS : le sitemap :
{"_id":« boucherie-avignon »,« startUrl »:[« https://www.pagesjaunes.fr/annuaire/chercherlespros?quoiqui=boucherie&ou=Avignon%20(84000)&idOu=L08400700&contexte=nx8lTX2oWIC/UFOYhPV%2BbA%3D%3D&proximite=1&quoiQuiInterprete=boucherie&carte=0"],« selectors »:[{« id »:« liens »,« type »:« SelectorLink »,« parentSelectors »:["_root",« page-suivante »],« selector »:« a.denomination-links »,« multiple »:true,« delay »:0},{« id »:« nom »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:« h1 »,« multiple »:false,« regex »:"",« delay »:0},{« id »:« ville »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".address span:nth-of-type(3) »,« multiple »:false,« regex »:"",« delay »:0},{« id »:« code-postal »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".address span:nth-of-type(2)",« multiple »:false,« regex »:"",« delay »:0},{« id »:« numero-et-rue »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".address > span:nth-of-type(1)",« multiple »:false,« regex »:"",« delay »:0},{« id »:« siret »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".siret span",« multiple »:false,« regex »:"",« delay »:0},{« id »:« note »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".effectif span",« multiple »:false,« regex »:"",« delay »:0},{« id »:« tel »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".clearfix.num-container span.coord-numero",« multiple »:false,« regex »:"",« delay »:0},{« id »:« date-creation »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:« span.valeur »,« multiple »:false,« regex »:"",« delay »:0},{« id »:« page-suivante »,« type »:« SelectorLink »,« parentSelectors »:["_root",« page-suivante »],« selector »:".link_pagination span.value",« multiple »:true,« delay »:0},{« id »:« profession »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:« span.activite »,« multiple »:false,« regex »:"",« delay »:0}]}

Merci

Hello, qu’entends tu par « limité à 10 scraps maximum » ? Quels blocages est-ce que tu rencontres?

Les PJ sont protégées par la solution Datadome, dont le but est d’empêcher des robots de tourner sur leurs pages, possible que tu aies déclenché leur algo de détection…

Bonjour Mickael,

quand tu lis ce message fais moi signe car je suis dans une démarche similaire à ta question, et je souhaite savoir si tu as solutioné cela.

par avance merci Louis

Bonjour Igcdb,
Je ne me suis pas repenché sur le sujet depuis.

Bonnes recherches.

ok merci de ta réponse