La magie des logos de Google

Le 10 septembre était lancé le grand collisionneur de hadrons (LHC, large hadron collider) en Suisse. Vous savez ce truc qui devait créer un trou noir et engloutir la terre. Tout ça a grand renfort d’articles de partout dans la presse mondiale. Ceci dit la couverture médiatique sur le LHC est ridicule à côté de celle qui a suivie l’arrivée de Sarah Palin dans la course à la présidentielle US.

Dans toute cette agitation Google a choisi de “fêter” le LHC avec un logo spécial. Et comme souvent un clic sur ce logo renvoyait sur la page de résultat de recherche “grand collisionneur de hadrons” sur le .fr et “large hadron collider” sur le .com

Je pense que ces mots clés relativement complexes ont du être rarement tapés dans l’histoire des moteurs de recherche, d’ailleurs Google trend détecte le mot en français uniquement le 10/09 et en anglais dans la semaine du 7 au 14/09. Et voilà ce que ça donne :

Sarah peut aller se rhabiller, un lien sur la home de Google est explosif en terme de recherche. D’ailleurs le mot clé en question se retrouve dans le top du Hot Trends USA (note en passant: les mots clés classé en 1 et 2 ne ressortent pas sur les courbes de GG trends… je pense à un bug de la liste hot trends)

Tout ceci est bien beau mais qu’est ce que ça donne sur les sites qui se retrouvent en premiere page du moteur sur le mot clé visé. J’avais identifié les sites du Cern (cern.ch) au niveau du google.com et lhc-france.fr sur le .fr

lhc-france.fr doit être proche de 0 visiteur en temps normal a vu sa fréquentation monter à 20’000 visiteurs uniques. Le cern.ch qui a environ 30’000 visiteurs uniques est monté a environ 1.7 millions de VU le 10/09.


Je pense que Google a contribué à plus de 90% de cette audience. Avec juste un lien sur sa home page vers une page de recherche il a réussi a envoyer vers les sites présents à ce moment là environ 1.5 million de visiteurs sur le .com et 30’000 sur le .fr

Le jeu va donc maintenant consister à trouver les prochains logos de Google et surtout les mots clés ciblés, pour se placer au mieux 🙂 Il faut aussi penser à prévoir un gros serveur, le “google effect” va catégoriser le “digg effect” au rang de micro pic.

Google Trends, un outil génial

Comme tout le monde j’ai découvert Google trends pour Websites ce week-end. Et depuis je suis resté sans voix devant la précision de l’outil. Oubliez les approximations d’Alexa, Compete… Ou les données payantes de Nielsen et consort. Google Trends devient L’OUTIL de surveillance du web.

Dans le graph ci dessus vous avez les données en bleu de Google Trends et en rouge de Google Analytics de mon site préféré sur le forex. Le nombre de visiteurs uniques est d’une précision qu’on avait rarement vue jusqu’ici sur des outils gratuits.

J’ai quand même pas de bol, je n’ai pas beaucoup de temps en ce moment pour jouer avec ce genre d’outil… Trop de travail. Mais pas beaucoup de temps ne veut pas dire pas de temps du tout…

Outre le fait de savoir quelle est l’audience de vos concurrents, de connaître leur tendance, d’en apprendre sur les groupes de sites visités par une même population, de savoir de quel pays les sites tirent leur audience…. Vous pouvez aussi connaître le potentiel de visiteurs qu’il existe pour une thématique donnée.

Par exemple je prends au hasard tous les sites média qui parlent du marché des changes, j’arrive à connaître leur nombre de visiteurs uniques. Avec la magie de l’indicateur “Also visited” on se rend compte que les visiteurs passent rarement d’un site à l’autre et donc l’audience cumulée des gros du secteur doit se situer sous 200’000 VU quotidien. Ce qui me laisse une part de marché de l’ordre de 5 à 10%, le plus gros étant proche des 25%. Bien entendu ce n’est qu’une approximation mais ça permet déjà d’avoir une info nouvelle par rapport à avant.

Au fait le web existait avant Google ?

Refresh automatique ? Mauvaise idée !

Il y a des nouvelles qui sont difficile à entendre. Cette semaine j’ai reçu un mail me prévenant que j’avais un refresh auto sur les pages de mon site sur le forex. Vous savez cette balise Meta <meta http-equiv=”refresh” content=”900″ /> qui, dans mon cas, recharge la page automatiquement toutes les 900 secondes (15 minutes).

Après être passé d’un refresh de 300 secondes à 600 puis 900, je pensais m’en être débarrassé il y a quelques temps mais c’était sans compter sur des résidus sur la moitié des pages du site.

Pourquoi avoir mis ce refresh ? Quand j’ai monté Mataf.net j’ai pris modèle sur les sites boursiers existant (abcbourse.com, boursier.com et bien sûr Boursorama.com) ils avaient tous des refresh pour que les visiteurs aient en permanence des pages à jour (et oui, les news vont vite dans la finance). Mes templates n’étant pas très sélectifs la balise Meta Refresh s’est retrouvée sur tout le site. Petit à petit je me suis rendu compte que c’était pénible (je suis aussi utilisateur de mon site) j’ai donc enlevé ce refresh sur certaines pages, j’ai allongé les délais et je pensais avoir terminé par les enlever.

Le mail reçu m’a remis le nez sur mon erreur du départ. Tout se paye un jour, et j’ai perdu entre 25% et 30% des pages vues en enlevant le refresh. Cette fois je suis clean.

Le nombre de visiteurs n’a pas bougé mais je vais devoir travailler pour retrouver mes 2.5 millions de pages vues mensuelles. Je fais un bond de 4 mois en arrière.

Le choc psychologique passé je pense que ça devrait m’aider à renforcer le site. Les campagnes au CPM auront un meilleur taux de clic, les annonceurs seront donc encore plus intéressés pour continuer leurs campagnes. Les visiteurs n’auront pas ce rechargement qui arrive toujours au moment où on est en train de lire un article.

En fouillant un peu sur les sites financiers, je me suis rendu compte qu’il y a une majorité de sites financiers qui utilise cette technique. Parfois très ciblé sur des pages avec des fils de news et parfois sur tout le site. Les délais de refresh vont de 30 minutes à 1.5 minute !

Si dans mon cas je perds 25% des pages vues avec un refresh de 15 minutes sur la moitié des pages je vous laisse imaginer ce que ça donnerait sur un site qui a entre 1.5 et 5 minutes de refresh sur tout son site. Economiquement, une telle perte pourrait être fatale. La seule solution est d’enlever la balise refresh progressivement.

Comme je le disais plus haut, tout se paye un jour…

Source de l’image

Analyse des flux de visiteurs

C’est toujours intéressant d’analyser les flux de visiteurs. Ces dernières semaines j’ai eu l’occasion d’avoir des liens sur quelques gros sites qui ont entrainé des pics inhabituels.

Dans l’ordre :

Ce qui est intéressant c’est de voir que Presse-Citron est au niveau de 01Net pour l’envoi de visiteurs (35 millions de visites par mois quand même). Ça confirme que les lecteurs de Presse Citron sont très assidus et suivent les liens que donne Éric.

Le Scoopeo effect

En réponse au billet de Steph Guerin “Quoi de neuf avec le social bookmarking francophone ?” voici le scoopeo effect.

Je ne sais pas qui a eu l’idée de scooper un article mais il a réussi a le placer en une de scoopeo ce qui m’a apporté au total un peu plus de 800 visites en une semaine. L’effet s’est ensuite dissipé.

Ces visites ont eu pour effet de booster un peu mes statistiques mais il n’y a eu aucune inscription au flux RSS. J’en conclue donc que ce n’est pas un moyen intéressant de faire de l’audience… A moins de rester à la une ad vitam aeternam.

Prochaine étape : Digg 🙂

Xiti annonce une croissance ralentie

La news est paru il y a quelques jours sur le site de xitimonitor. Je résume rapidement :

la croissance d’audience moyenne des sites internet est en train de faiblir, seulement 3.1% de croissance au 3ème trimestre 2007, contre 8% il y a 1 an et 24% il y a 2 ans. Au niveau mensuel on note même une baisse de 0.4% entre septembre 2007 et 2006. La fidélisation doit donc devenir une priorité aussi importante que l’acquisition.

Vous pourrez trouver d’autres points de vue sur Ecosphère et LMI. Je partage d’ailleurs la conclusion de LMI en pensant que l’audience des sites stagne car le nombre de sites augmente et pas parce que le nombre d’internautes diminue ou le temps en ligne baisse. Ceci ajoute un argument dans mon idée que pour croître les plus gros sites devront faire des acquisitions.

Cette étude, bien que très intéressante et plein d’enseignement est à prendre avec prudence. Je subis depuis quelques jours une forte baisse d’audience sur Xiti, j’avais déjà eu ce genre de soucis mais sans penser une seconde que ça pouvait venir de la fiabilité de Xiti. Or la baisse actuelle n’est pas confirmée par Google Analytics et le nombre de bannière que j’affiche, par exemple hier Xiti m’annonce -5% de visites alors que GG me donne +5% idem pour mon gestionnaire d’affichage de pub. Xiti semble donc avoir des problèmes avec son tracker. En regardant de plus près j’ai sorti les deux courbes suivantes :

Variation de l’écart entre Xiti et Google analytics Ecart entre le nombre d’affichages d’encart de pub et les données de Xiti et Google analytics

Sur le premier graphe on voit que Xiti donne toujours un nombre de visiteurs plus élevé que Google, à la mi septembre cet écart s’est envolé et depuis une semaine il y a eu un effondrement et une inversion.

Sur le second graphe on voit que le rapport entre le nombre de pages affichées indiqué par Google et le nombre de pub est relativement constant. à l’inverse avec Xiti cet écart varie très fortement. Ça me laisse penser que Google analytics est plus fiable que Xiti.

Si une personne de chez Xiti passe par là je ne serais pas contre une explication. Je trouve l’outil très pratique mais si ce genre d’erreur continue je ne passerai pas au modèle payant 🙁

Qualité de l’outil de statistique

J’utilise Xiti en version gratuite depuis maintenant plus de 3 ans et Google Analytics depuis environ 5 mois. Jusqu’à maintenant j’étais plus satisfait de Xiti que d’Analytics. J’avais même l’intention de passer en version payante dès que j’en aurai la possibilité (ça coûte quand même plus cher que l’hébergement du site !).

Depuis quelques jours Xiti semble connaître des problèmes techniques, il y a eu quelques retards dans la diffusion des stats, puis un jour a disparu (pour revenir 24h plus tard) et maintenant le nombre de visiteurs indiqué par Xiti a fortement chuté sans raison apparente alors que Google n’indique pas la même tendance. Avant Xiti me donnait plus de visites que Google (environ 10% de moins) et maintenant c’est l’inverse (environ 3% de plus)…

Pourquoi est ce que ce serait Xiti et non Google analytics ? Simplement parce que j’ai eu une cassure très importante dans les stats de Xiti (-20% du jour au lendemain) alors qu’Analytics n’indique pas une si forte baisse, juste une variation normale. Le nombre d’affichage de bannières confirme les stats d’analytics.

Il y a encore un truc bizarre, les visiteurs qui accèdent directement au site semblent moins touchés que ceux qui accèdent avec un referer… C’est mystérieux !

Mon outil de stat préféré semble me lâcher… SVP Xiti donnez moi une explication, rendez moi mes visiteurs !