Page jaune scraping maximum

Bonjour,

J’essaye de scrapper avec web scrapper de google pour récupérer facilement des noms et adresses de prospection.

Je suis limité à 10 scraps maximum.

Est-ce normal? Comment passer outre ?

Merci d’avance.

PS : le sitemap :
{"_id":« boucherie-avignon »,« startUrl »:[« https://www.pagesjaunes.fr/annuaire/chercherlespros?quoiqui=boucherie&ou=Avignon%20(84000)&idOu=L08400700&contexte=nx8lTX2oWIC/UFOYhPV%2BbA%3D%3D&proximite=1&quoiQuiInterprete=boucherie&carte=0"],« selectors »:[{« id »:« liens »,« type »:« SelectorLink »,« parentSelectors »:["_root",« page-suivante »],« selector »:« a.denomination-links »,« multiple »:true,« delay »:0},{« id »:« nom »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:« h1 »,« multiple »:false,« regex »:"",« delay »:0},{« id »:« ville »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".address span:nth-of-type(3) »,« multiple »:false,« regex »:"",« delay »:0},{« id »:« code-postal »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".address span:nth-of-type(2)",« multiple »:false,« regex »:"",« delay »:0},{« id »:« numero-et-rue »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".address > span:nth-of-type(1)",« multiple »:false,« regex »:"",« delay »:0},{« id »:« siret »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".siret span",« multiple »:false,« regex »:"",« delay »:0},{« id »:« note »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".effectif span",« multiple »:false,« regex »:"",« delay »:0},{« id »:« tel »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:".clearfix.num-container span.coord-numero",« multiple »:false,« regex »:"",« delay »:0},{« id »:« date-creation »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:« span.valeur »,« multiple »:false,« regex »:"",« delay »:0},{« id »:« page-suivante »,« type »:« SelectorLink »,« parentSelectors »:["_root",« page-suivante »],« selector »:".link_pagination span.value",« multiple »:true,« delay »:0},{« id »:« profession »,« type »:« SelectorText »,« parentSelectors »:[« liens »],« selector »:« span.activite »,« multiple »:false,« regex »:"",« delay »:0}]}

Merci

Hello, qu’entends tu par « limité à 10 scraps maximum » ? Quels blocages est-ce que tu rencontres?

Les PJ sont protégées par la solution Datadome, dont le but est d’empêcher des robots de tourner sur leurs pages, possible que tu aies déclenché leur algo de détection…