Je travaille sur un petit projet perso pour suivre les tendances e-commerce avant Noël.
L’idée serait surtout de suivre des infos comme les prix ou la disponibilité de certains produits, sur quelques sites.
J’aimerais regrouper ces données sans passer des heures à tout copier-coller manuellement
Je sais qu’il existe des outils simples pour ce genre de tâche, mais je ne sais pas trop lesquels sont vraiment fiables (et pas hors de prix).
Vous avez déjà testé ce type de solution ? Des retours ou astuces à partager ?
Alors si tu codes un petit peu (ou que ça ne te fait pas peur) et en t’aidant d’une IA si besoin. je te conseil Firecrawl qui est un outil de scraping assez simple et ‘Polymorphic’ dans le sens ou tu n’as besoin comme dans le scraping de d”finir toi même les selecteurs CSS tu peux juste expliquer via un prompt ce que tu cherche sur une page. Le plan gratuit est généreux pour des projets perso.
ta donnée provient de un ou plusieurs sites et quelle est la fréquence de refresh.
En fonction un script + envoi directement des infos dans gsheet peut faire le travail
Pour un suivi comme ça, le modèle d’Octoparse est généralement suffisante, en fait, tu peux configurer l’exportation automatique des tâches et puis l’exporter vers Google Sheets, pratique
J’ai déjà essayé Octoparse, et effectivement leurs modèles sont vraiment simples à utiliser, il suffit de rentrer l’URL pour récupérer les données. Malheureusement, il n’y a pas de modèle correspondant à mon site cible. Ils m’ont proposé de créer un modèle personnalisé pour mon site, mais pour des raisons de coût, on hésite encore…
claude peut t’aider à créer ton proto. Si tu pars sur cette voie, creuse un peu le sujet html en amont pour savoir ce ue le robot va recuperer comme données et la gestion de la pagination