Comparatif outil validation email

Hello,

j’ai lancé un petit comparatif des solutions (sur un échantillon identique) cette semaine et voici le résultats :

A lire sur mon blog : Comparatif des outils de qualification et de validation d’email

si ca peut en aider certain a faire leur choix.

++

3 « J'aime »

Merci pour le partage de ton retour d’expérience !
Perso, j’arrive pas à me faire une idée d’ensemble sans un tableau récap :wink:

As-tu envoyé ton mailing ? Le test ultime serait de l’avoir envoyé sur toute la base (elle est pas bien grosse, peu de risque de te retrouver BL), et de comparer les erreurs annoncées avec les erreurs réelles.

A première vue, j’ai l’impression que nojunk.io* pèche grave par excès de prudence, non ?

Note : * pourquoi ne peut-on pas sélectionner du texte sur ton blog ? Pour les utilisateurs « normaux », c’est juste chiant, et pour les autres, ça prend 5s de contourner si on veut vraiment copier [ici, j’ai copié la ref à nojunk.io]

merci de ton retour, ben faire le test avec un envoie … cout et cramage d’url… et pas possible de le faire sur les meme base… donc oui tout est possible mais je me suis arréter là, cramer quelques euros pour sasvoir avec quel presta partir

Ouai je vais faire un tableau tu a raison, mais à chaque fois l aversion responsive me saoule… ou alors direct un sreadsheet partagé publique.

" A première vue, j’ai l’impression que nojunk.io* pèche grave par excès de prudence, non ?"

oui c’ets mon impression aussi

" pourquoi ne peut-on pas sélectionner du texte sur ton blog ? Pour les utilisateurs « normaux », c’est juste chiant, et pour les autres, ça prend 5s de contourner si on veut vraiment copier"

éviter la copie de contenu et le duplicate content des user normaux … limiter les risque.

1 « J'aime »

Effectivement, si tu n’envoies pas d’email pour tester réellement les emails, tu ne peux pas savoir lesquelles sont valides et lesquelles sont invalides. Par conséquent, difficile d’apprécier l’exactitude des outils benchmarkés.

Faire un test de délivrabilité n’est pas très compliqué :

  1. Tu crées des comptes Gmail vierges (gratuitement)
  2. Tu shootes 50 emails par compte email
  3. Tu attends 48h
  4. Tu regardes les emails qui renvoient des hard bounces

C’est ce que j’ai fait ici.

Sinon, c’est un peu comme si tu faisais un « Top 10 des meilleurs vélos » sans donner un seul coup de pédale. Juste en regardant le prix de chaque vélo et le nombre de vitesses. :slight_smile:

2 « J'aime »

Ce n’est pas mon sujet ni mon comparatif, mais au vu de ta remarque, j’ai envie de te répondre a mon tour et rebondir sur le lien que tu a donné :slight_smile:

Ce que tu dis est juste (pour la partie envoie des emails), mais étant donné que Mailnjoy est aussi référencé dans ton test de délivrabilité, j’ai moi-même noté plusieurs biais dans celui ci que je pense intéréssant de soulever.

  1. Tout d’abord le coté « juge et parti » :

En effet qd on décide de faire un test de délivrabilité et qu’on choisi soi-même judicieusement les adresse emails sur lesquelles on va envoyer, alors il est facile de trouver celles qui mettront en valeur sa propre solution, tout en évitant soigneusement celles qui sont plus problématiques. Ainsi n’importe lequel des outils benchmarqué peut indiquer qu’il a 97 ou 99% de réussite sur le test dans ces conditions la, et forcément les autres passent pour ceux qui savent moins bien faire. (Je pourrais facilement faire la même chose sur une liste soigneusement choisi sur Mailnjoy et montrer que les autres outils, dont le tiens, font nettement moins bien)

  1. Choix du type des adresses emails utilisés pour le test

Ton outil c’est spécialisé dans la validation des adresses professionnelles sur domaines catchall, mais ça ne représente pas du tout l’ensemble des boites emails existantes.
J’ai testé ton outils il y a 1 mois de ça environ sur un ensemble de boites emails classqiues (orange, sfr, laposte, yahoo, etc) et le score de validation était plus de l’ordre de 0% que de 100% (j’ai pas mal d’imprim écran si tu veux y jeter un oeil)
Donc la encore le 97% évoqué est un biais de jugement, sur un extract précis de boites email, professionelles choisies, et non pas représentatif d’une liste classiques emails ou il y aura un peu de tout (B2B ou B2C, même sur emails pro car bien des TPE utilisent par ailleurs des adresses « perso » pour un usage pro)

  1. Manière de classifier qu’un outils a des résultats « faux positif » ou « faux négatif »

Dans ton test, tu indique le pourcentage de faux positif / faux négatif de chaque solution. Pour cela tu considère qu’un faux positif est qd une adresse est identifié en « catchall » ou « protégé » alors que l’adresse email réelle d’une personne n’est pas celle que avais au préalablement identifié. Par exemple tu sais que « Jean Moulin » travaille chez « société X », et connaissant le pattern des emails classiques de cette société, tu en déduis que l’adresse réelle est par exemple [email protected] (et donc que [email protected] est un faux positif, même si celle ci ne génère pas de bounce)
Une boite email en fonctionnement « catchall » peut etre constitué d’alias, de redirection, et de multiples aspects technique qui font qu’il est malgré tout possible que [email protected] soit retransmis en interne vers [email protected]. C’est également possible que cette adresse redirige vers une boite générique du genre [email protected], et que quelqu’un la lise ensuite (ou pas…).
Donc techniquement parlant la réponse « catchall » est correcte, même si elle est moins précise que si elle est couplée a des croisements sur les noms/prénom des personnes via des api qui shootent sur linkedin. Ici on confond donc validité technique et valeur de confiance d’une adresse email, qui sont deux aspects différents (complémentaires, mais différents), et le fait d’attribuer un faux négatif est en tout cas un choix personnel et en rien une valeur absolue de la réalité.

A l’identique, les adresses emails « protégées » (qui peuvent avoir des interprétations totalement différentes d’un vérificateur email a un autre), sont (en tout cas chez Mailnjoy) présentes pour indiquer le possible risque de bounce. Chez bcp de comparateurs ces adresses la sont basiquement vues en « catchall », alors que c’est faux et elles peuvent générer des bounces. Chez Mailnjoy ont les classent en protégées afin d’identifier ce risque et de donner un % de bounce de celles ci. Cette spécificité ne collant pas avec les retours des autres outils, c’est tout bonnement classé en faux positif / faux négatif sans plus de discernement dans ton benchmark.

  1. Granularité des résultats et affinage

Ton benchamark regarde si l’adresse emails existe (ou plutôt si une personne est associé a cette adresse email sur une société donné) ou non, et donc un score de bounce supposé sur celle ci.
On parle ici d’estimation du taux de bounce d’une adresse email, mais des solutions (dont Mailnjoy) permettent de quantifier le fait qu’une adresse email valide puisse aussi être a faible valeur ajoutée (email jetable, pattern autogénéré sur des gros domaine public pour de l’usage unique, mots clés a faible confiance dans le username, absence d’activité internet du domaine ou se situe l’email, etc…)
Au final les solutions qui donnent plus de détails ici et qui vont plus loin que la simple validité « technique » d’un email ne sont pas prises en compte, alors que ce sont des éléments différenciant qui intéresse bcp les utilisateurs et qui devraient donc être pris en compte dans ton benchmark si tu veux qu’il soit plus représentatif de la réalité.

  1. fraicheur de la data renvoyée

Ton outils se base sur des données froides, je suppose avec des liens croisés de bigdata collecté sur des API linkedin (ou apparentée).
Je ne te demande pas de nous donner la recette de cuisine, chacun la sienne :wink: , mais une chose est sure, tu ne fais pas de call SMTP pour déterminer les résultats. Comme tout bon technique, j’aime a benchamrker les concurrents en regardant comment ils se comportent pour valider des adresses emails perso / pro dont je dispose, et j’ai vu qu’il n’y a aucun call SMTP qui est effectué pour valider les emails en questions.
L’immense majorité des validateur email se base d’abord sur du SMTP pour vérifier les adresses, et agrémentent de données diverses pour aller plus loin, mais en ayant pris soin de vérifier deja le statut réel de la boite a l’instant T.
Ton outils n’effectue pas ces call SMTP et renvoi des informations sur des données croisées annexes, ce qui a fait que dans un de mes essais par exemple j’ai eut une adresse email pro d’une boite que j’ai quitté il y a 6 ans deja (et dont l’adresse n’existe plus depuis ce moment la) qui est remonté valide à 97% de confiance avec ton outils. Ceci démontre que les données ne sont pas suffisantes fraiches et risquent dans bien des cas de donner ce type de problème la. En comparaison bcp des outils que tu a bencharké (dont le mien) font des vérifications systématiques, ce qui est un point relativement important, et qui n’est pas pris en compte dans ton bench.

  1. Non utilisation des spécificités technique des concurrents :

Par exemple ici, nous disposons chez Mailnjoy d’une validation approfondie qui permet de vérifier avec encore plus de points de contrôle une adresse email, et gagner en fiabilité sur sa possibilité de bounce et sur son intéret marketing (= présence d’un vrai humain qui utilise la boite et pas juste une boite automatisée qui n’a pas d’activité réelle derrière). Zerobounce et d’autres vérificateurs ont également des fonctionnalités du genre, mais ton benchmark ne tiens pas en compte de ces aspects la.

Je comprend que ça serait plus complexe de benchmarker en prenant en compte tous ces aspects la qui sont propre a chaque solution, mais le fait de ne pas le faire diminue fortement le coté impartial du bench que tu présente, qui met en avant ta solution comme étant LA meilleure et de loin, la ou la réalité est qd même tout autre si on regarde aussi les différents aspects que j’ai remonté ici.
Ta solution est surement intéréssante et innovante, mais convient a des usages qui ne sont pas universel (plutôt même assez spécifiques), et chaque solution a ses forces et ses faiblesses, selon les usages que l’on en fait… :wink:

Merci pour ces feedbacks Renaud !

  1. Pour éviter cet effet « juge et parti », j’ai utilisé l’aléatoire. Je n’ai pas choisi les données d’input pour mes tests. Ce serait trop facile effectivement. A la place, j’ai généré ces données en utilisant un critère arbitraire (cf le paragraphe « Sampling » ici et ici qui explique la méthodo).

  2. Tu as raison, notre outil ne traite que les données B2B. On a décidé de ne pas traiter les emails des particuliers.

  3. Nous ne procédons pas de la manière que tu décris. Je pense que tu n’as pas lu attentivement notre méthodo pour dire ça.

  4. Oui là-dessus je te rejoins : ta solution fournit des détails techniques (email jetable, etc.) que nous ne donnons pas.

  5. Icypeas ne fournit que de la donnée générée dynamiquement, via des calls RCPT TO notamment. On utilise absolument aucune base de données. Je ne peux pas te laisser dire ça. Il est tout à fait possible que notre algo se soit trompé dans le cas de l’email de ton précédent job. Je te remercie pour le feedback, on va investiguer. On cherche en permanence à s’améliorer.

  6. En effet, j’ai benchmarké uniquement la capacité à vérifier si un email existe. On a d’ailleurs open sourcé notre méthodo et nos datasets, pour rendre très transparente notre démarche. Mais bien entendu, d’autres critères peuvent entrer en jeu, selon les besoins de chacun.

Merci du retour Pierre :slight_smile:

On est d’accord sur le fond, chaque outils a ses forces et ses faiblesses (et ses cibles spécifiques d’utilisation), et c’était ce que je voulais mettre en avant vis a vis de ton bench.
Aucune méthodo n’est universellement juste, et je pense que c’est également important de le mettre en avant pour que chacun puisse connaitre les tenants et aboutissant, c’était le but de mon message.

Juste pour terminer avec les aspects techniques, je rebondis sur quelques points que tu a mis et je m’arrete la sur le sujet!

  1. Je comprend tout a fait le parti pris de ne valider que du B2B, aucun soucis. Par contre tu devrais préciser que « les usages pro sur domaines B2C » ne fonctionnent pas, car bon nombre de pro (type TPE / PME) utilisent des adresses emails de type [email protected], ou [email protected], etc… qui sont des emails de pro mais que tu ne valideras pas.

  2. je constate ici simplement que toutes les validations répertoriés en « catchall » / « protected » lors de ton bench avec notre outils Mailnjoy ont été classées en « faux positif / faux négatif » dans un de tes tableaux. Techniquement parlant c’est pourtant bien le statut des adresses concernées, d’ou le fait que je trouve que (dans mon cas, je ne regarde pas les autre concurrents) c’est faux d’indiquer ça nous concernant. Et j’ai donc précisé pourquoi ça l’était dans ma réponse détaillée ci dessus.

  3. Et bien écoute alors je ne comprend pas comment tu procède, car j’ai beau avoir une sonde qui décortique chaque adresse email validé sur un de mes domaine perso (exemple ci dessous avec forgetbounce.net), lors d’une validation email dessus avec ton outils je ne vois passer aucun flux SMTP dans les logs. Bon j’ai aussi un retour « non délivrable » sur ces adresses emails la alors que certains le sont, donc j’imagine qu’il doit y a avoir un problème dans ton algo de validation. J’ai également retesté avec l’adresse email de mon ancienne boite, et cette fois ci j’ai la vrai adresse et la fausse qui toutes les deux sont vues comme « non délivrable » (alors qu’une des deux fonctionne bien).
    A mon sens il y a surement des bug a corriger dans ton algo car j’ai bcp d’inderminés ou de faux négatif (cd quelques printscreen)

Afin de ne pas trop perturber le sujet initial qu’a lancé @Nicolas_Laustriat , si tu souhaites re-rebondir sur ces points la, jte propose qu’on le fasse sur le topic de ton outils, ça sera mieux!