Ici la solution la plus efficace c’est de faire un script qui va:
1: Générer la liste des inputs, dans ton cas il s’agit de la liste de toutes les villes pour lesquelles tu souhaites récupérer des infos.
2: Pour chaque ville, injecter son nom dans le formulaire
3: Submit le formulaire de recherche
4: Parcourir la page de résultat et gérer la pagination, ici via clics sur le bouton « Afficher plus de maisons de retraite » (Weitere Pflegeheime anzeigen)
5: Pour chaque résultat, naviguer sur la page de la maison de retraite correspondante, et extraire les informations présentes
6: Répéter les étapes 2, 3, 4 et 5 jusqu’à avoir atteint la fin de la liste des villes à gérer
Sans compétences min. en dev et scraping, c’est possible que tu y passes beaucoup de temps, mais tu peux facilement sous-traiter et marger sur cette tâche.
Merci pour ta réponse
je te confirme ne pas être dev… c’est exactement le cheminement auquel j’avais pensé… néanmoins, je n’ai pas le temps ni les compétences pour cette mission.
est ce que cela est dans tes cordes?
merci
Grégory
Pour un non dev, je pense que Zenno le fait aussi sans soucis. Mais c’est sur que tu gagneras ton temps (et ta marge) à faire sous traiter par un des experts ici présent
C’est vrai, même si il ne faut pas forcément toujours uniquement opter pour cette dernière solution.
Le plus compliqué pour faire ce choix, c’est de pouvoir mesurer le ratio temps passé/argent en le faisant soit même vs en sous traitant.
Autre situation: Si on doit extraire une info spécifique en provenance de 10K sites différents, vs une même info sur deux sites avec 10K pages chacun, alors dans le 1er cas une approche manuelle (foule, type Foule Factory ou Amazon Mechanical Turk) sera préférable alors que dans le second cas l’automatisation sera de mise.