Hello Thomas,
Merci pour ton retour. Je sais déja me servir de ces outils je suis plutot à la recherche de source de données telles que Pole Emploie par exemple
Ce sont des cibles qui sont en générale très présentes sur facebook.
Je partirai sur des premiers filtres par code APE sur des services types pappers.fr
Ensuite, je chercherai le nom de la cible dans les pages facebook avec un outil type phantom buster ou texau, de là tu dois pouvoir assez facilement extraire des adresses emails …
La difficulté sur cette cible n’est pas tant d’identifier les entreprises en question (le plus efficace me semble être phantom buster pour scraper google maps) mais bien d’identifier les propriétaires de ces business physiques : nom, prénom, téléphone, email direct.
Actuellement, j’ai scraper les resto UberEats à paris et le plus difficile, c’est de récupérer les e-mails et numero de téléphone qui se trouve sur Google map, leur site internet ou sur leur page Facebook
J’ai essayé dropcontact et ils ne sont pas très bon pour trouver des infos sur les resto
Actuellement, j’enrichis ma DB de lead plutôt à la main …
Des idées pour automatiser l’enrichissement?
Une petite question, pourquoi partir en premier du choix de l’outil (WebScraper), pour ensuite rechercher des sources à scraper avec ce dernier?
D’habitude, on choisi d’abord les sources de données, et ensuite on choisir l’outil adapté en fonction des problématiques techniques imposées par l’outil (gestion des clicks, structure HTML propre avec suffisamment d’attributs, etc etc).
En faisant le chemin inverse tu risques hélas d’être désappointé par l’extension WebScraper