Indexations d'articles en masse

Bonjour, j’avais une question concernant la publication d’articles en masse.

Pour vous mettre dans le contexte, j’ai un site qui parle de composant d’ordinateur.
Et j’ai eu l’idée de scraper tous les composants d’ordinateur et faire une page d’article qui parle des spécificités de chaque composant.
Par exemple une page par composant :

  • MonSite/processeur/ProcesseurIntelCorei7-8700K
  • MonSite/processeur/ProcesseurIntelCorei7-9000K
  • MonSite/processeur/ProcesseurIntelCorei9-7000K

Il y a déjà des sites qui proposaient ce genre de ressource, mais c’était juste un tableau qui récapitulait les spécificités de chaque composant. (exemple en image)

Et je souhaite refaire la même chose, mais en écrivant du texte pour avoir plus de contenue que les concurrents et être mieux référencé.

Mais le problème, c’est que je peux créer 30 000 articles (1 article par composant), et je ne sais pas si Google trouvera pertinents mes articles et si il pourra les indexer.

Quelqu’un a déjà eu cette situation ou à un conseiller à me donner ?

Merci d’avance :slight_smile:

1 « J'aime »

Hello,

C’est une situation très très connue, pour bcp de sites/annuaires/ecommerce. Tu pourras trouver bcp de conseils sur internet .

Mes petits conseils que je peux donner (je garde mes autres conseils pour mes clients :stuck_out_tongue: , après tout, le but est d’être le premier dans les search) :

  • ne pas se focus tout de suite sur le fait d’avoir 30k d’articles à faire, une très bonne architecture du site (optimisé tehniquement + UI/UX), peut faire la différence
  • focus toi sur les principaux articles à créer (voir les outils seo sur les sites de tes competitors et trouver les mots clés à longue traine).
  • vérifier via les outils seo (semrush, ahrefs…) que ce que tu veux créer a un vrai but (pour toi, tu vois un intéret à créer ces pages, mais peut-être qu’il y a tellement peu de volumes de recherches sur ces mots clés que tu perdras du tps
  • google ne t’indexerera pas les 30k de pages en une fois, et prendra du tps à la faire, alors commence vite, et optimise ensuite
  • pour le content, voir du coté de l’écriture AI (GPT3 & co), le spinning, voire l’outsourcing
  • éviter les formations des faux guru qui vont te promettre une formule magique
3 « J'aime »

Ah ! Moi qui pensais qu’ils connaissaient vraiment le SEO et qu’ils partageaient juste leurs infos afin que tout le monde devienne « rentier du web » :wink:

2 « J'aime »

Merci de t’a réponse.
Je vais pendre note de tes conseils :slight_smile:

J’avais une autre question, pour la génération de mes 30 000 articles, j’utilise un template.

Exemple : Ce composant informatique {nom du produit} est incroyable, il possède {nombre de RAM} de RAM et coute {prix du produit}

Et les balises sont remplacés par le nom de chaque composants.

Mais je suis face à un dilemme (sur de la longue traine) :

  • Sois je fais une page de 400 mots avec du duplicate content en interne pour mes 30 000 pages car les pages sont généré via un template avec juste le nom, et les caractéristiques du produits qui changent

  • Sois je fais une page avec très peu de mots mais qui ne possède pas de duplicate content
    Exemple :
    Nom : {nom du produit}
    RAM : {nombre de Ram}
    Prix : {Prix du produit}

Vous en pensez quoi ?

Que tu vas devoir faire des choix, utiliser des balises canoniques et faire une prière à Larry Page.

1 « J'aime »

Je te conseille d’utiliser en auto l’api de google Panduan Memulai Indexing API | Pusat Google Penelusuran  |  Google for Developers. Tu as le droit à 200 par jour (150 jours) et ca marche bien. Tu dois aussi faire un sitemap pour la search console avec un niveau de priorité des urls, et renseigner l’adresse de celui ci dans ton robots.txt.

Tu peux aussi balancer ton sitemap la : http://www.google.com/webmasters/sitemaps/ping?sitemap=xxxx
tu remplace les xxxx par l url de ton sitemap

2 « J'aime »

super idée mais fait attention a ton maillage interne sinon ca ne sert a rien…

regarde ce thread : x.com

1 « J'aime »

Personnellement, j’ai déjà fait ce type de publication (sur un autre sujet) :

  • Scrap de données sur d’autres sites / bases de données > J’ai un tableau excel tout propre avec une 100aine de lignes.
  • Import des données sur un site personnalisé (je fais ça sous wordpress, l’import est simplifié) > Une ligne = une nouvelle page (custom post) et toutes mes données sont bien rangées dans ma bdd.
  • création d’un template personnalisé pour afficher ces données.
  • SEO solide à travailler pour ranker sur Google.

Pour moi ça a très bien fonctionné. Je continue à importer / updater des données comme cela et à améliorer mon template, pour avoir plus de données que les autres sites et un meilleur affichage.

1 « J'aime »

J’ai fais exactement pareil, sauf avec Shopify.
Comment tu as fais pour éviter le duplicate contente en interne avec le template ?

Je viens d’utiliser le site quetext pour vérifier le contenue dupliquer, et voila le résultat …

  • Le 1er site, c’est du duplicate content de mon site car je génère les articles avec un Template.
  • Le 2eme site, c’est la base de donnée que j’ai scrapé

Je peux en discuter en message privé avec toi ?

Okey, je vais regarder ça, merci :slight_smile:

J’utilise déjà l’API de Google avec les 200 URLs par jours.
Mais il m’en faudra plus mdrrr

Sur chaque compte google tu peux créer jusqu’à 10 projet. donc avoir 10 clés d’api ce qui te fait 200 * 10 de pages par jours.Et si tu créé 10 comptes google tu es déjà à 20 000 pages par jours.J’ai déjà testé ça fonctionne à merveille.

Oui, cela fonctionne bien avec une clef API
Mais avec 10 clef API, je ne pense pas que cela fonctionne …

Hello :raised_hands: pour faire suite, avec un collègue nous venons de sortir un dash pour indexer des liens : https://www.flashserp.com (vous pouvez me mp si vous souhaitez essayer).

Ce sujet a été automatiquement fermé après 365 jours. Aucune réponse n’est permise dorénavant.