Bilan Seocampus 2010

Lors du Seocampus je n’ai rien vu de révolutionnaire rien appris de nouveau mais les conférences m’ont permis de me faire une idée sur les tendances du référencement. Je vais compiler ces tendances par thème.

Les thèmes sont classés par ordre d’importance, critère basé sur le degré d’insistance des intervenants.
Attention ce billet est long et certainement pénible à lire. Préparez les pistaches et ouvrez une bonne bière avant de commencer (si c’est le matin je conseille plutôt un café).

Performance

La performance des sites prend de plus en plus de place dans l’algo de Google (Cafeine). La performance est mesurée par le temps d’affichage des pages.
Le poids des pages des sites a fortement augmenté avec le temps (X4 en 3ans sur les sites d’ecommerce), l’amélioration de la bande passante n’a pas suivi assez rapidement. Le résultat est une dégradation du temps d’affichage des pages. Le temps de chargement a une influence sur le crawl et donc sur la fraicheur de l’index de Google… Et Google veut un index frais car le web temps réel prend de l’ampleur.

La performance a une influence sur

  • le taux de transformation
  • l’image de marque
  • la satisfaction des visiteurs
  • le prix des campagnes sur Adwords
  • et bientôt sur la position dans le search

Il faut donc être plus rapide que ses concurrents directs.

Mettre en place une stratégie de performance :

  • Définir le niveau de performance qu’on souhaite
  • Déterminer le seuil de rupture (jusqu’à quelle charge serveur le site doit tenir)
  • Surveiller et alerter lorsqu’il y a une dégradation
  • Diagnostiquer les baisses de performances

Il existe des méthodes low cost : Yslow, Page speed, Firebug

  • inspecter les pages, CSS et fichiers javascript
  • valider les échanges réseaux
  • repérer les points d’amélioration

Cette méthode est limitée car on n’a pas de vue utilisateur (difficile de voir le temps de chargement d’une page pour des visiteurs du monde entier sur des config différentes)

La surveillance des performances se fait de manière active et passive
Active:

  • mesurer le temps de chargement en fonction de la localisation géographique
  • analyse des perfs

Passive

  • performance du trafic en temps réel
  • la vision du couple charge/perf permet de trouver le point de rupture en fonction de la charge
  • performance en fonction de différents axes : Géo, OS, navigateurs…

Référencement universel

thèmes: microformats, géolocalisation, services google

Bing et Google intègrent de plus en plus du contenu dans leurs résultats (news, cartes, cours de bourse, vidéos, images…). De plus certains résultats intègrent directement des avis d’internautes postés sur des sites tiers (par exemple sous forme d’étoiles).

Il y a quelques temps (j’ai pas la date exacte) 17% des requêtes donnaient un résultat de recherche universelle. Aujourd’hui on doit être proche de 30% et la tendance continue.

Google utilise les microformats de quelques sites sélectionnés, il y aura certainement dans le futur de plus en plus de microformats pris en compte. Ce sera une nouvelle donnée inclue dans le snipet et donc une incitation au clic un peu plus importante.

Sur certaines requêtes Les moteurs proposent des cartes géographiques soit en fonction du lieu s’il est intégré dans la requête (par exemple ‘hotel à paris’) soit en fonction de la géolocalisation en fonction de l’ip. Les sites ayant des données de géoloc doivent les mettre en avant en multipliant les pages autour de ce thème (pages d’itinéraires, lieux à visiter autour…) et doivent s’inscrire sur le local business service de Google (à vérifier, ça ne me concerne pas alors j’ai pas vraiment tout noté).

Il faut référencer les images et les vidéos. Une méthode de base est de bien nommer les fichiers, d’activer la recherche d’images avancée dans GWT, d’utiliser un sitemap vidéo, de lier les photos et vidéos, de faire des flux RSS et d’utiliser un maximum de plateforme de partage (flickr, youtube) et de médias sociaux (twitter, youtube) sans oublier de signer nos oeuvres avec l’url du site ou un logo. A noter qu’aujourd’hui on peu référencer les vidéos hébergée sur notre propre site.

Intégrer un site dans Google news est de plus en plus compliqué, il faut faire une soumission manuelle et publier du contenu unique, frais, local et seofriendly. On peut passer par des méthodes détournées en publiant sur des sites de communiqués de presse dont le contenu est repris sur GG news, dans ce cas il faut bien rédiger et ne pas oublier de semer quelques liens par ci par là.

Google évolue doucement en portail et met ses services (news, map, image) de plus en plus en avant et tend à virer les résultats organiques du triangle d’or. C’est une tendance lourde. Il sera donc de plus en plus difficile de se positionner. L’interface Jazz, actuellement en test, semble accentuer le mouvement.

Vous pouvez ouvrir une seconde bière (ou café) et ouvrir le sac de chips (ou paquet de petits écoliers) qui vous fait tellement envie.

Temps réel

Le temps réel prend de plus en plus de place. Sur les moteurs ça se matérialise lorsqu’il y a un évènement important qui génère un pic de requêtes sur un thème précis (tremblement de terre, JO, Mickael Jackson…). Dans ce cas les moteurs (Google, je sais pas pour les autres) détectent le pic et modifie le classement en augmentant le poids de la fraicheur des pages. Ils affichent aussi des résultats issus de twitter.

Etre réactif est vital pour les sites de presse, il faut utiliser plusieurs canaux pour diffuser ses liens et avoir une information en continue.

Personnalisation des résultats

Les moteurs personnalisent de plus en plus les résultats en fonction de l’historique des recherches et des visites des internautes. Cette tendance laisse penser que d’ici la fin de l’année une même requête aura des résultats complètement différents d’un utilisateur à l’autre.

Ca aura certainement un impact sur les visites des sites mais pour le moment aucune solution n’existe pour maîtriser ce phénomène. La seule piste que je vois est d’optimiser au maximum les titres pour inciter au clic afin d’apparaitre le plus possible dans l’historique des internautes, mais normalement ce boulot doit déjà être fait 🙂

Duplicate content

le duplicate est géré par les moteurs, il n’y a pas de pénalité mais des effets négatifs:

  • dilution de la popularité
  • usabilité moins bonne car les urls peuvent être longues
  • Google passe plus de temps à crawler et met passe donc moins souvent sur le contenu unique et frais

Solutions proposées :

  • redirection 301
  • élement rel=”canonical”
  • si le contenu peut être repris sur des sites tiers (RSS par exemple) : faire des liens vers l’article original
  • dans la mesure du possible faire du contenu unique

Dans tous les cas il y a un aveu de faiblesse de Google, ils n’ont pas réussi à trouver une solution du côté du moteur. La solution est donc reportée sur les webmasters.

Référencement mobile

Peu d’info sur le référencement mobile en dehors de la géolocalisation. On sent un gros vide alors que je pense que ce sera vital de savoir positionner ses sites et applications sur des outils de recherche mobile. J’ai eu plus d’info en début de semaine lors du mobile world congress de Barcelone (peut être le thème d’un futur billet).

91% des 15/55 ans ont un mobile, 1/3 sont mobinautes. L’utilisation du mobile est très différente il va falloir inventer de nouvelle stratégie de ref… Les recherches sur mobile via les moteurs représentent environ 40% des acces aux sites (stats à prendre avec prudence).

Les facteurs qui entre en compte sont la géolocalisation, les recherches via Map (encore de la géoloc), les requêtes ont 1 à 3 mots et il y a plus de recherche prédictive (on commence à taper la requête et le mobile suggère la suite). De tout ça on en déduit que le référencement sur les maps est donc très important pour ceux que ça concerne (restau, hotels…) et que la longue traine n’existera pas ou peu sur le web mobile.

En ce qui concerne la longue traine ça pourrait évoluer car on va vers des recherches vocales et donc des requêtes potentiellement plus longue et non prédictives.

La qualité du contenu.

Avoir du contenu unique et pertinent permet d’aider un peu le SEO. Entre autre grace aux linkbaiting.

Mon avis perso : je ne dis pas que c’est mal mais c’est loin d’être déterminant pour le positionnement sur les moteurs. Il m’a semblé que les référenceurs ont beaucoup trop insisté sur ce point presque pour s’excuser de vouloir mettre en avant du contenu qui n’est pas forcément de grande qualité. On était là pour parler de SEO et non pour trouver des méthodes pour fidéliser les visiteurs 😉 Le linkbaiting ça aide mais ça ne représente pas grand chose.

Autres thèmes à peine abordés ou ne déplaçant pas les foules

La recherche sociale. Google acheté aardvark, il y a du potentiel mais pour le moment rien de concret.

Le netlinking : le page rank est toujours tabou. Il me semble pourtant que c’est la base d’un bon positionnement. Le meilleur contenu du monde sans lien aura toujours du mal face à un spammeur adepte du content spinning qui mène une politique agressive sur ses liens entrants.

nofollow: le nofollow ne transmet pas de page rank mais, pire, le fait disparaitre. Le PR sculpting qui consistait à mettre du nofollow sur les liens pour concentrer le PR sur les pages principales semble donc mort (en dehors de techniques de sioux à base de flash ou js), place au PR modeling qui consiste à éliminer simplement les liens peu utiles.

la longue traine: peu de discours sur la longue traine. On entend plus parler de l’optimisation des pages en fonction d’une poignée de requête. La longue traine semble rester un concept flou pour la plupart des référenceurs présents. Tant pis pour eux.

Bing: quasiment personne n’a parlé de Bing. Pour la majorité des référenceurs moteur de recherche = Google. Or Bing est en train de prendre rapidement une place de plus en plus importante (moteur de facebook, alliance avec Yahoo). Il pourrait représenter un pourcentage non négligeable d’ici la fin de l’année.

J’ai certainement loupé plein de détails mais je pense avoir fait le tour des tendances lourdes de ces conférences. Dans ce billet vous avez quasiment l’intégralité de ce que j’ai retenu mais rien ne vaudra une présence physique pendant 2 jours pour bien tout assimiler. J’y retournerais certainement en 2011.

La transparence américaine

La californie cest Alerte à Malibu, Santa Barbara mais aussi une université
La californie c'est Alerte à Malibu, Santa Barbara mais aussi une université

S’il y a un point qui diffère entre les USA et la France (et certainement d’autres pays) c’est la transparence. Je suis tombé sur le site ucpay.globl.org qui est une base de données des salaires versés aux presque 700’000 personnes qui ont reçu un salaire de l’université de Californie entre 2004 et 2008.

Il est possible de filtrer par salaire, par nom, par fonction… Une base de données publique inimaginable chez nous.

N’empêche que s’il y avait une telle transparence ici on pourrait plus facilement vérifier si le budget est correctement géré.

Parler de taureaux, ce n’est pas comme être dans l’arène.

Finalement je serai au Mobile World Congress de Barcelone du lundi au mercredi avec mon associée. Merci au passage à Google de nous avoir offert les 2 places 😉

Plusieurs objectifs dans ce déplacement :

  • Discuter avec des sociétés qui développent des appli mobiles
    • pour estimer le cout d’une appli,
    • pour avoir des idées pour mettre en avant les applis afin qu’elles soient téléchargées en masse
    • pour savoir quelle plateforme (Android ou iPhone) est le plus porteur dans nos domaines
    • pour savoir si les mises à jour des OS impliquent obligatoirement des mises à jour des applis
    • pour savoir s’il y a des frameworks
  • Voir des mobiles de dernière génération pour le plaisir des yeux
  • Trouver des sources de revenus
    • Voir des régies de pub sur mobile
    • Voir les systèmes de paiements sur mobile (pour vendre nos applis ou des abonnements)
  • Visiter Barcelone… manger et boire ce qui se fait là-bas… ben oui !
  • Aller dire un bonjour au numéro un mondial du forex qui a ses bureaux dans le centre de Barcelone.
Retour à lhotel après un apéro trop long
Retour à l'hotel après un apéro trop long

Serveur plus lent le week end

Le week end, c’est bien connu, on se repose. Il semble que mon serveur suive aussi cette règle, la preuve avec le temps de réponse de la page d’accueil donné par Pingdom

Temps de réponse du serveur avec des week end plus lents
Temps de réponse du serveur avec des week end plus lents

La première chose à laquelle j’ai pensé est mon cron hebdo. Ça ne vient pas de là, ce cron n’existe plus depuis que j’ai changé de serveur.

L’hypothèse qui me semble la plus probable est la sous charge du serveur le week end… Oui oui la sous charge. Une des principale améliorations que j’ai apporté pour limiter la charge et améliorer la vitesse d’affichage des pages est de passer une très grosse partie des résultats de requêtes MySQL en cache. Le cache est automatiquement vidé au bout d’un certain délai (ça va d’un mois pour des résultats qui ne varient pas à 1 minute pour d’autres qui bougent fréquemment). Le premier visiteur qui passe après le vidage du cache a une page construite en direct et donc un peu plus lente.

Le week end, moins de visites = moins de rafraichissement du cache = probabilité plus grande que les visiteurs subissent un ralentissement.

Il va donc falloir que je mette les pages en cache de façon asynchrone pour voir si mon hypothèse est la bonne.

Mise à jour sur une suggestion de Franck

Le temps de réponse est très haut (1200ms) la nuit et tombe bas en journée lorsque l’audience revient (<800ms). Mon hypothèse semble se confirmer.

Temps de réponse horaire sur une semaine
Temps de réponse horaire sur une semaine

Un nouveau business modèle

En 2003 lorsque j’ai lancé ma première société le business modèle était basé sur la vente d’abonnements à des news quotidiennes sur les marchés financiers. Pas assez d’audience, un marketing médiocre et l’aventure a duré 3 mois. Ensuite Adsense est arrivé et la pub a suffi a faire tourner la seconde entreprise. Depuis le chiffre d’affaire monte doucement mais surement.

Depuis la crise de 2007 vivre uniquement de la publicité a soudain paru un poil risqué. Le Forex n’a pas connu la crise mais j’ai vu les autres souffrir et parfois fermer. Début 2009 j’ai donc lancé assez discrètement un nouveau produit – un module pour une plateforme de trading- vendu sous forme d’abonnement. C’était tellement discret qu’en milieu d’année il n’y avait quasiment plus de mise en avant de ce produit.

Évolution du nombre de clients sur 1 an

Mais le nombre de client ne s’est pas effondré, il a même légèrement progressé. C’est encourageant pour la suite, j’ai donc mis le turbo.

Mon objectif est de faire 10% de mon CA avec les abonnements d’ici la fin 2011. Le début de la diversification.

3D secure

J’ai vécu ma première expérience avec 3D secure et ça s’est très bien passé. J’ai donné mon numéro de carte et dans la seconde qui a suivi la validation mon téléphone a sonné pour me donner un code à entrer pour valider ma commande. Et hop ça a fonctionné.

J’ai été agréablement surpris par la fluidité du processus. Il y a quand même quelques points qui restent énigmatiques :

Que se passe-t-il si je commande sur une ligne bas débit ? Ne rigolez pas, il y a encore pas mal de zone sans ADSL, deux personnes de ma famille sont dans ce cas (une en Isère et une dans la Vienne). A ce propos, chère NKM, il serait préférable de fournir un débit correct à tout le monde avant de vouloir fibrer ceux qui ont déjà un débit plus que conséquent…

Comment je fais si je passe une commande depuis un endroit en dehors de chez moi ?

Et si le téléphone est occupé ça rappelle ou je dois repasser ma commande ?

Autour du 15 février

J’ai très rarement l’envie de sortir de mon bureau pour aller voir des conférences. Si il y en a une intéressante alors il y en aura d’autres à la même date et ce sera pile le jour où je ne peux pas.

Du 15 au 18 février il y a le Mobile World Congress à Barcelone. Pile dans le domaine que je cherche à approfondir en ce moment.

Du 14 au 17 février il y a l’international Traders Expo à New York, une des plus importantes expo pour les traders. Une des rares occasions d’aller discuter avec des gens qui font le même boulot que moi. Ils seront tous là.

Du 19 au 20 février il y a le SEO Campus à Paris. Je n’ai jamais assisté à des conférences sur le SEO, discuter avec des pros pourrait ouvrir mon horizon.

Du 15 au 28 février ce sont les vacances familiales.

Je vais quand même couper mes vacances pour aller à Paris au SEO Campus mais j’ai un énorme regret pour New York et Barcelone.

Bilan 2009

C’est l’heure du bilan de l’année passée avec les prévisions pour 2010.

2009 a commencé en fanfare avec une poursuite de la forte hausse d’audience commencée fin 2008. L’apogée a été atteint en mars avec plus de 1.1 million de visites et quasi 4 millions de pages vues. Comme je m’y attendais il y a eu ensuite une phase de plateau et même un léger recul. J’ai vécu ça comme une petite traversée du désert, c’est toujours très difficile de stagner pendant 3 longs trimestres.

Globalement l’année se termine quand même très bien par rapport à 2008 avec une hausse de 50% sur les pages vues et 75% sur les visites. Le nombre de pages vues/visite a régressé, en cause une modification de la structure permettant aux visiteurs d’avoir plus d’info sur une page et donc d’avoir moins de clics à faire.

2009 a été marquée par de nombreuses pannes du serveur et de sérieux ralentissements. Une nouvelle structure matérielle et du dev a permis de redresser la barre. Depuis les changements, en décembre 2009, la courbe d’audience a repris le chemin de la hausse. Malheureusement la hausse depuis décembre n’est pas seulement due au nouveau serveur, ça serait trop simple. J’ai aussi rafraichi de nombreuses sections du site et la forte chute de l’euro dollar m’a donné un coup de pouce providentiel.

Attention c'est une échelle log

2009 aura donc été une année de consolidation, j’ai eu ma seconde baisse de la courbe trimestrielle d’audience depuis la création du site. Le nombre important de visiteurs m’a obligé à revoir la structure du site et a redévelopper certaines sections trop gourmandes en CPU. Le temps passé la dessus ne m’a pas permis de travailler sérieusement sur le contenu.

2010 sera une année de contenu, la structure du site me semble maintenant solide, la majorité de mon temps sera consacré à produire du contenu dynamique pour le site. Logiquement j’attends donc une montée douce de l’audience (5 à 10% par trimestre) dopée en majorité par le bouche à oreille. J’ai bon espoir de terminer l’année avec une audience de 1.5 million de visite pour le dernier mois et pourquoi pas 5 millions de pages vues.

Du côté stratégie je regarde de moins en moins ce qui se fait sur les autres sites. Je fais simplement un tour des confrères tous les 36 du mois pour voir s’il y a de grosses modifications et, éventuellement, trouver des sources d’inspirations. J’ai envie de construire un site pour mon usage personnel et de partager mon approche des marchés financiers, je pars du principe que si ce que je fais est utile pour moi ça le sera certainement pour d’autres traders. Petit moment de faiblesse, en voyant des sites communautaires se monter autour du forex j’ai eu la tentation de me lancer dans l’aventure et de suivre la mode. Si l’aventure peut être gratifiante et intéressante je doute de l’intérêt économique de la chose et je ne suis pas encore prêt à travailler à 100% bénévolement…

Si je tente de tracer ma route et de ne pas suivre les autres j’essaye quand même d’imposer mon point de vue. Je suis en train de mettre à disposition de ceux qui veulent mon contenu sous forme de widget. Si l’intérêt se confirme, normalement à la fin de l’année on devrait pouvoir placer sur n’importe quel site l’intégralité de mon contenu. 2011 sera l’année des clones ?

D’un point de vue personnel j’ai confirmé vouloir continuer travailler en famille sans salarié. Certes on avance moins vite mais le business modèle est bon, les visiteurs fidèles, l’envie de travailler intacte.

La vie de ce blog pourrait évoluer. J’envisage de publier en anglais… Pour le moment c’est simplement un projet. Pourquoi ? Les blogueurs que je lis le plus en ce moment et avec qui j’ai envie de partager ne sont pas francophones et la blogosphère anglophone est infiniment plus grande, surtout dans le milieu financier… Ce qui me retient ? je vais mettre deux fois plus de temps à écrire chaque billet.