Il ne faut pas confondre quantité et qualité

J’espère que cela va paraître surprenant à pas mal de monde, mais certains continuent apparemment de penser que le fort trafic d’un site Web – et on confond déjà quantité de visiteurs et quantité de pages vues1 – est une bonne mesure de sa qualité. L’éternel coup de celui qui a la plus grosse, en somme.

Par exemple, quand Ouriel Ohayon enterre le service de généalogie Geni, c’est sous prétexte que son trafic n’a pas décollé. Et la démonstration – flagrante il faut dire – est faite sur un graphe réalisé avec Google Trends, qui mélange allègrement des sites de nature très variée, et avec des écarts de trafic tels que celui de Geni est presque invisible :

Like vs. Joost vs. Technorati vs. Geni vs. SecondLife

Mais il ne faut pas être très malin pour voir que, même s’il est plus faible que celui des autres sites « analysés »2, le trafic de Geni est en hausse !

La preuve avec le graphe Google Trends de Geni.com, d’ailleurs, tant qu’à faire :

Geni

Deux fois plus de visiteurs qu’il y a un an, c’est pas mal non, pour un service qu’on ne va clairement pas visiter tous les jours, et sans doute de moins en moins au fur et à mesure de la stabilisation de l’arbre généalogique.

Personnellement, j’adore Geni, j’y ai créé un début de branche de mon arbre généalogique, en invitant tous les membres dont je connaissais l’adresse e-mail, et de proche en proche, avec les ajouts de chacun, il y a déjà près de 500 personnes dans « mon » arbre, dont le plus ancien membre est né en 16173 !

Bon, pour revenir au sujet de ce billet, en imaginant qu’Ouriel ait raison et que le trafic d’un site soit représentatif de sa qualité, que dire de cette comparaison entre TechCrunch4 et Facebook :

Techcrunch vs Facebook

Ah, tiens, TechCrunch n’a même pas assez de trafic pour que sa courbe apparaisse… ;-)

  1. Faut-il mieux avoir 1000 visiteurs qui consultent une seule page et repartent aussitôt faute d’avoir trouvé un quelconque intérêt au site visité, ou 10 visiteurs qui restent longuement et parcourent 100 pages ? ⬆︎

  2. Un bien grand mot vu la profondeur de l’analyse ⬆︎

  3. Je confirme, celui-là n’a pas d’adresse e-mail… ⬆︎

  4. Google Trends ne gère pas pour l’instant les sous domaines ⬆︎

Si vous voulez signaler une erreur ou proposer une modification de ce texte, n'hésitez pas à l'éditer directement à la source sur Github.

5 commentaires

  • Entièrement d'accord. Je constate ce phénomène (à mon échelle) sur mon blog perso : sur une centaine de visite par jour, plus de la moitié vient consulter des images (envoyés par Google Images) et repart aussi tôt. L'audience « qualitifiée », qui se rend sur le site pour y lire les articles (et qui y passe plus de 10 secondes) ne représente en fait que 20 % du trafic réel.

    De nombreux blogs, qui jouent sur le buzz et les mot-clés racoleurs génèrent ainsi un trafic important, toujours intéressant lorsqu'on se sert de son site pour faire de la pub. Mais dans l'absolu, leur audience ne vaut pas grand chose…

  • Effectivement, et j'ai justement fait la chasse récemment aux « faux » visiteurs, comptés dans les stats mais pas réellement intéressants pour moi — ni eux intéressés par le site — notamment en scrutant mes erreurs 404.

    Du coup mes stats ont bien baissé, mais je suis comme ça sûr que mes visiteurs sont plus intéressés par mon contenu, ce qui est le principal.

    Je laisse le site tourner un peu et je regarderais l'évolution du temps passé dessus par les visiteurs.

  • Salut,

    pour éviter les parasites de google image, il suffit d'ajouter une balise
    meta robots avec la valeur NOARCHIVE
    autre solution, marquer ses images, pour peu qu'on en soit l'auteur

Twitter 500px Flickr Facebook Instagram Github Feed