Page Layout Algorithme

Il y a une semaine Google a sorti un nouvel algo de son chapeau : un update du  Google Page Layout Algorithme. Il est censé pénaliser les sites dont le contenu se trouve trop bas dans les pages donc qui, généralement, présentent trop de pub au dessus de la ligne de flotaison du site.

Pan, j’m’l’a pris dans les dents. Sur une semaine ça représente environ 8% d’audience en moins. Rien de catastrophique mais quand même gênant. Gênant car je n’avais pas encore été touché par les dernières modifs du moteur de recherche et gênant car on ne peut pas dire que j’abuse de la publicité, je me fais même un point d’honneur à mettre en avant le contenu et à améliorer l’expérience des visiteurs.

Cet algo à l’avantage sur Google ou Panda de fonctionner en temps réel, on n’a pas besoin d’attendre un update pour revenir un simple crawl devrait suffire. Ça aurait pu atténuer mon inquiétude si le crawl n’avait pas été stoppé net deux jours après l’update. Lorsque j’ai vu, ou plutôt je n’ai plus vu, les logs de Googlebot je crois que je suis devenu blanc surtout que je n’ai trouvé aucune référence à ce problème sur twitter ou dans la blogosphère SEO. Le malaise s’est dissipé lorsque j’ai eu la confirmation que je n’étais pas le seul et j’ai accueilli avec soulagement le retour de Googlebot samedi matin.

J’avoue que je ne comprends pas pourquoi mon site serait considéré comme mettant trop en avant les pub. Dans le doute j’ai quand même modifié de façon très légère mon layout et j’ai pris la décision d’attendre un peu pour pouvoir analyser ça à froid d’ici quelques jours et éventuellement mettre en place des modifications plus profondes sur le site.

Je vous tiendrai au courant de mes actions et de leur éventuels impacts.

Quand on teste on fait attention au calendrier. Bordel !

Un jour il faudra que je fasse un bilan sur tout mon boulot autour de l’internationalisation d’un site. Ça fait maintenant plusieurs années que je me débat avec le référencement multilangue, j’ai ajouté les problèmes de duplicate content en créant un site par pays – ce qui m’a posé pas mal de soucis ces derniers temps.

Ma dernière modification vient d’une mise à jour de Google qui permet de spécifier la langue et la localisation des sites qu’on gère et de donner l’url des autres versions traduites et localisées. si vous gérez un site multilangue vous DEVEZ lire ça.

Comme on n’est jamais trop prudent j’ai commencé le test sur la version espagnole de forexticket – Espagne, bolivie, argentine, mexique… Google a été très rapide pour prendre en compte la nouvelle configuration car en quelques heures Google.bo ne renvoyait plus la version .es de forexticket mais la version .bo sur une requête avec le nom du site. Jusqu’ici tout va bien !

Bien entendu j’ai mis en place des critères de mesure d’audience pour mesurer l’impact de ces changements. Et on en vient au sujet de ce billet… Quand on fait des tests d’audience localisée on fait TRÈS attention au calendrier !

Cette semaine il y a eu

  • le 6 décembre : férié en Espagne
  • le 8 décembre : fêté en Espagne, Chili, Mexique, Argentine… bref quasiment tout les pays hispanophones.

Bien entendu l’audience s’est effondrée dans ces pays, comme chaque année, me causant un stress inutile. Je suis donc bien incapable de mesurer l’impact des changements cette semaine.

Comment gérer plusieurs langues sur un site ?

Matt Cutts vient d’aborder une question intéressante sur la gestion de plusieurs langues sur un site. Selon lui, la meilleure méthode est d’acheter un tld par langue… ça m’arrange, c’est ce que je compte faire.

Par contre il semble dire que ce n’est pas la peine d’acheter le .ca si c’est pour reproduire les langues anglaises et françaises déjà présent sur .fr et .com (par exemple). Là où je suis gêné c’est qu’un .fr aura du mal à sortir au Canada.

Changer un nom de domaine

Une fois n’est pas coutume, je vais expliquer longtemps à l’avance ce que je compte faire pour améliorer mon positionnement sur le forex. J’ai besoin de poser par écrit ma « stratégie » et j’ai aussi besoin de feedback pour savoir si je ne fais pas de trop grosses conneries.

Mon site forex (Mataf.net) est relativement bien positionné au niveau de l’audience (voir le suivi concurrentiel que je publie régulièrement). Son taux de croissance est conforme au taux de croissance du secteur, je suis donc bien dans le marché. Ma principale source de trafic vient de France (34% depuis le début de l’année selon Xiti), les pays suivants sont l’Espagne et les USA à 4.6% chacun. On peut donc dire que l’audience est, au moins pour les 2/3 hors de France, assez bien répartie sur le globe.

J’ai quand même un problème : je n’arrive pas à diminuer ma part d’audience française. Quoique je fasse (multiplication des langues, IP anglaise) je reste avec  mes 35%. Historiquement Mataf.net est un site français qui a ajouté progressivement de nouvelles langues, ma difficulté pour augmenter les nombre de visiteurs à l’étranger vient peut-être de là.

En dehors de ce problème d’audience j’ai un problème de nom de domaine. Lorsque j’ai lancé le site j’ai opté pour un .net car le .com était pris. Parfois des visiteurs tapent intuitivement dans la barre d’adresse le nom du site avec un .com, et le pire c’est que ça m’est déjà arrivé ! J’ai bien tenté d’acheter le .com, mais le propriétaire a refusé mon offre de 15’000$. Celui qui possède le .fr est aussi un peu gourmand.

Ça fait longtemps que je tourne autour et j’ai franchi le pas : je vais « tuer » mataf.net et le transférer sur un nouveau nom. J’ai donc acheté un ndd sympa avec une centaine de suffixes pour couvrir tous les principaux pays et je travaille actuellement sur une version géolocalisée de mon site. Je donnerai le nouveau nom quand j’aurai verrouillé tous mes achats, ça représente encore 5k€ de dépense annuelle.

Je vais transférer progressivement chaque langue de mataf.net sur nouveau nom de domaine géolocalisé, en commençant par celles qui apportent le moins d’audience. Je vais monitorer l’audience pour essayer de mesurer la perte (ou le gain) de visiteurs. Je terminerai par la bascule des langues principales : anglais, espagnol et français. La transition sera très douce et devrait s’étaler sur plusieurs mois/trimestres.

Le risque est grand de perdre la popularité de Mataf auprès des moteurs de recherche à court terme et de diluer un site sur plusieurs dizaines. Mais à plus long terme je crois que ce sera bénéfique. Bien entendu je vais travailler en respectant quelques règles SEO : redirection 301, déclaration dans GWT…

Alors bonne ou mauvaise stratégie ? Voyez-vous des points que j’ai oubliés ? Des idées pour minimiser les risques ?

Exit le bouton “j’aime” de Facebook

like-facebook

il y a un peu plus de 6 mois j’ai mis, comme beaucoup de site web, le bouton “j’aime” de facebook sur la plupart des pages de mon site sur le forex. Au démarrage j’ai eu jusqu’à plus de 100 amants par jour pour finir à une cinquantaine (chiffre stable depuis 5 mois).

A partir du jour où j’ai placé les boutons, le trafic depuis facebook a triplé en passant de 600/700 à 1800/2000 visiteurs par mois. L’ajout du bouton a donc un réel effet sur l’apport de trafic mais le nombre de visiteurs reste négligeable sur l’audience complète du site. Facebook contribue à environ 0.015% du total.

Le résultat est très décevant compte tenu de la place de choix que j’avais réservé au bouton. Il était toujours visible sans scroller et très proche du contenu. J’ai donc décidé de supprimer ce bouton.

Les visiteurs depuis Facebook ne me manqueront pas, par contre il y a une grande inconnue sur l’impact que ça aura dans le référencement sur Bing… Je ferai peut être un bilan dans quelques mois.

stat-facebook

Visiteurs-de-bing

Google modifie le titre des pages

Je suis tombé hier sur un billet chez Ramenos rapportant une information du forum d’entraide “Google Webmaster” qui explique que Google peut modifier le titre d’une page s’il est trop court, dupliqué sur un grand nombre de pages ou contient un grand nombre de mots-clés.

10 minutes après avoir lu cet article on m’appelle pour un cas de titre modifié dans les pages de Google…

Le site en question est “Formation-trading.com” et la requête “Formation Trading“.

Le titre de la page

Apprenez la bourse et les techniques de trading gratuitement

Le titre donné par Google

formation-trading.com

A priori on pourrait penser que Google a simplement donné le nom du site mais je pense plutôt qu’il a donné le contenu de la balise alt du logo qui renvoie vers la page d’accueil. Le titre a changé récemment, pas plus tard qu’hier Google donnait le titre

LOGO formation-trading.com

le logo qui renvoie sur la page d’accueil est logo.png Je pense que le titre de la page a été modifié car il ne contenait pas tous les termes de la requête, il a donc pris ce qui s’en rapprochait le plus. Lorsque l’on fait d’autres recherches le titre n’est pas modifié.

Pour corriger ce problème la meilleure solution pourrait être de mettre les mots clés de la requête dans la balise title.

Je mets une copie du code et du snippet de Google pour mémoire.

Code Formation trading

snippet-formation-trading

Tout est bon dans le SEO

  • Oui, le contenu est roi
  • Oui, les liens sont rois aussi
  • Oui, l’architecture est reine
  • Oui, la qualité est reine
  • Autrement dit, sur votre voiture, les quatre roues sont importantes…et puis le moteur, et puis l’essence, et puis…

Une conclusion d’un billet sur Axe-net.

Je résume :

  • il faut des liens externes et une bonne structure de site pour que notre contenu de optimisé se retrouve bien positionné sur les moteurs.
  • il faut du contenu de qualité et bien mis en valeur pour que les visiteurs ne partent pas aussi vite qu’ils sont arrivés.

Difficile d’être contre si ce n’est que le premier point est bien du SEO mais le second est plus proche du marketing. Pour moi le SEO consiste à bien positionner le site sur les moteurs (via liens externes, structure du site, optimisation du contenu) et a faire cliquer sur les liens (via snippets et title adaptés). Une fois que le visiteur est sur le site on entre dans un domaine différent du SEO.

Il fallait que je le dise…

Bilan Seocampus 2010

Lors du Seocampus je n’ai rien vu de révolutionnaire rien appris de nouveau mais les conférences m’ont permis de me faire une idée sur les tendances du référencement. Je vais compiler ces tendances par thème.

Les thèmes sont classés par ordre d’importance, critère basé sur le degré d’insistance des intervenants.
Attention ce billet est long et certainement pénible à lire. Préparez les pistaches et ouvrez une bonne bière avant de commencer (si c’est le matin je conseille plutôt un café).

Performance

La performance des sites prend de plus en plus de place dans l’algo de Google (Cafeine). La performance est mesurée par le temps d’affichage des pages.
Le poids des pages des sites a fortement augmenté avec le temps (X4 en 3ans sur les sites d’ecommerce), l’amélioration de la bande passante n’a pas suivi assez rapidement. Le résultat est une dégradation du temps d’affichage des pages. Le temps de chargement a une influence sur le crawl et donc sur la fraicheur de l’index de Google… Et Google veut un index frais car le web temps réel prend de l’ampleur.

La performance a une influence sur

  • le taux de transformation
  • l’image de marque
  • la satisfaction des visiteurs
  • le prix des campagnes sur Adwords
  • et bientôt sur la position dans le search

Il faut donc être plus rapide que ses concurrents directs.

Mettre en place une stratégie de performance :

  • Définir le niveau de performance qu’on souhaite
  • Déterminer le seuil de rupture (jusqu’à quelle charge serveur le site doit tenir)
  • Surveiller et alerter lorsqu’il y a une dégradation
  • Diagnostiquer les baisses de performances

Il existe des méthodes low cost : Yslow, Page speed, Firebug

  • inspecter les pages, CSS et fichiers javascript
  • valider les échanges réseaux
  • repérer les points d’amélioration

Cette méthode est limitée car on n’a pas de vue utilisateur (difficile de voir le temps de chargement d’une page pour des visiteurs du monde entier sur des config différentes)

La surveillance des performances se fait de manière active et passive
Active:

  • mesurer le temps de chargement en fonction de la localisation géographique
  • analyse des perfs

Passive

  • performance du trafic en temps réel
  • la vision du couple charge/perf permet de trouver le point de rupture en fonction de la charge
  • performance en fonction de différents axes : Géo, OS, navigateurs…

Référencement universel

thèmes: microformats, géolocalisation, services google

Bing et Google intègrent de plus en plus du contenu dans leurs résultats (news, cartes, cours de bourse, vidéos, images…). De plus certains résultats intègrent directement des avis d’internautes postés sur des sites tiers (par exemple sous forme d’étoiles).

Il y a quelques temps (j’ai pas la date exacte) 17% des requêtes donnaient un résultat de recherche universelle. Aujourd’hui on doit être proche de 30% et la tendance continue.

Google utilise les microformats de quelques sites sélectionnés, il y aura certainement dans le futur de plus en plus de microformats pris en compte. Ce sera une nouvelle donnée inclue dans le snipet et donc une incitation au clic un peu plus importante.

Sur certaines requêtes Les moteurs proposent des cartes géographiques soit en fonction du lieu s’il est intégré dans la requête (par exemple ‘hotel à paris’) soit en fonction de la géolocalisation en fonction de l’ip. Les sites ayant des données de géoloc doivent les mettre en avant en multipliant les pages autour de ce thème (pages d’itinéraires, lieux à visiter autour…) et doivent s’inscrire sur le local business service de Google (à vérifier, ça ne me concerne pas alors j’ai pas vraiment tout noté).

Il faut référencer les images et les vidéos. Une méthode de base est de bien nommer les fichiers, d’activer la recherche d’images avancée dans GWT, d’utiliser un sitemap vidéo, de lier les photos et vidéos, de faire des flux RSS et d’utiliser un maximum de plateforme de partage (flickr, youtube) et de médias sociaux (twitter, youtube) sans oublier de signer nos oeuvres avec l’url du site ou un logo. A noter qu’aujourd’hui on peu référencer les vidéos hébergée sur notre propre site.

Intégrer un site dans Google news est de plus en plus compliqué, il faut faire une soumission manuelle et publier du contenu unique, frais, local et seofriendly. On peut passer par des méthodes détournées en publiant sur des sites de communiqués de presse dont le contenu est repris sur GG news, dans ce cas il faut bien rédiger et ne pas oublier de semer quelques liens par ci par là.

Google évolue doucement en portail et met ses services (news, map, image) de plus en plus en avant et tend à virer les résultats organiques du triangle d’or. C’est une tendance lourde. Il sera donc de plus en plus difficile de se positionner. L’interface Jazz, actuellement en test, semble accentuer le mouvement.

Vous pouvez ouvrir une seconde bière (ou café) et ouvrir le sac de chips (ou paquet de petits écoliers) qui vous fait tellement envie.

Temps réel

Le temps réel prend de plus en plus de place. Sur les moteurs ça se matérialise lorsqu’il y a un évènement important qui génère un pic de requêtes sur un thème précis (tremblement de terre, JO, Mickael Jackson…). Dans ce cas les moteurs (Google, je sais pas pour les autres) détectent le pic et modifie le classement en augmentant le poids de la fraicheur des pages. Ils affichent aussi des résultats issus de twitter.

Etre réactif est vital pour les sites de presse, il faut utiliser plusieurs canaux pour diffuser ses liens et avoir une information en continue.

Personnalisation des résultats

Les moteurs personnalisent de plus en plus les résultats en fonction de l’historique des recherches et des visites des internautes. Cette tendance laisse penser que d’ici la fin de l’année une même requête aura des résultats complètement différents d’un utilisateur à l’autre.

Ca aura certainement un impact sur les visites des sites mais pour le moment aucune solution n’existe pour maîtriser ce phénomène. La seule piste que je vois est d’optimiser au maximum les titres pour inciter au clic afin d’apparaitre le plus possible dans l’historique des internautes, mais normalement ce boulot doit déjà être fait 🙂

Duplicate content

le duplicate est géré par les moteurs, il n’y a pas de pénalité mais des effets négatifs:

  • dilution de la popularité
  • usabilité moins bonne car les urls peuvent être longues
  • Google passe plus de temps à crawler et met passe donc moins souvent sur le contenu unique et frais

Solutions proposées :

  • redirection 301
  • élement rel=”canonical”
  • si le contenu peut être repris sur des sites tiers (RSS par exemple) : faire des liens vers l’article original
  • dans la mesure du possible faire du contenu unique

Dans tous les cas il y a un aveu de faiblesse de Google, ils n’ont pas réussi à trouver une solution du côté du moteur. La solution est donc reportée sur les webmasters.

Référencement mobile

Peu d’info sur le référencement mobile en dehors de la géolocalisation. On sent un gros vide alors que je pense que ce sera vital de savoir positionner ses sites et applications sur des outils de recherche mobile. J’ai eu plus d’info en début de semaine lors du mobile world congress de Barcelone (peut être le thème d’un futur billet).

91% des 15/55 ans ont un mobile, 1/3 sont mobinautes. L’utilisation du mobile est très différente il va falloir inventer de nouvelle stratégie de ref… Les recherches sur mobile via les moteurs représentent environ 40% des acces aux sites (stats à prendre avec prudence).

Les facteurs qui entre en compte sont la géolocalisation, les recherches via Map (encore de la géoloc), les requêtes ont 1 à 3 mots et il y a plus de recherche prédictive (on commence à taper la requête et le mobile suggère la suite). De tout ça on en déduit que le référencement sur les maps est donc très important pour ceux que ça concerne (restau, hotels…) et que la longue traine n’existera pas ou peu sur le web mobile.

En ce qui concerne la longue traine ça pourrait évoluer car on va vers des recherches vocales et donc des requêtes potentiellement plus longue et non prédictives.

La qualité du contenu.

Avoir du contenu unique et pertinent permet d’aider un peu le SEO. Entre autre grace aux linkbaiting.

Mon avis perso : je ne dis pas que c’est mal mais c’est loin d’être déterminant pour le positionnement sur les moteurs. Il m’a semblé que les référenceurs ont beaucoup trop insisté sur ce point presque pour s’excuser de vouloir mettre en avant du contenu qui n’est pas forcément de grande qualité. On était là pour parler de SEO et non pour trouver des méthodes pour fidéliser les visiteurs 😉 Le linkbaiting ça aide mais ça ne représente pas grand chose.

Autres thèmes à peine abordés ou ne déplaçant pas les foules

La recherche sociale. Google acheté aardvark, il y a du potentiel mais pour le moment rien de concret.

Le netlinking : le page rank est toujours tabou. Il me semble pourtant que c’est la base d’un bon positionnement. Le meilleur contenu du monde sans lien aura toujours du mal face à un spammeur adepte du content spinning qui mène une politique agressive sur ses liens entrants.

nofollow: le nofollow ne transmet pas de page rank mais, pire, le fait disparaitre. Le PR sculpting qui consistait à mettre du nofollow sur les liens pour concentrer le PR sur les pages principales semble donc mort (en dehors de techniques de sioux à base de flash ou js), place au PR modeling qui consiste à éliminer simplement les liens peu utiles.

la longue traine: peu de discours sur la longue traine. On entend plus parler de l’optimisation des pages en fonction d’une poignée de requête. La longue traine semble rester un concept flou pour la plupart des référenceurs présents. Tant pis pour eux.

Bing: quasiment personne n’a parlé de Bing. Pour la majorité des référenceurs moteur de recherche = Google. Or Bing est en train de prendre rapidement une place de plus en plus importante (moteur de facebook, alliance avec Yahoo). Il pourrait représenter un pourcentage non négligeable d’ici la fin de l’année.

J’ai certainement loupé plein de détails mais je pense avoir fait le tour des tendances lourdes de ces conférences. Dans ce billet vous avez quasiment l’intégralité de ce que j’ai retenu mais rien ne vaudra une présence physique pendant 2 jours pour bien tout assimiler. J’y retournerais certainement en 2011.

Réseau inaccessible pour Google chez OVH

Depuis le début du mois Google a beaucoup de mal a accéder à mon site (seconde courbe sur le graphe ci dessus). Le nombre de pages indexé baisse régulièrement. J’ai cru à un moment que j’avais un problème, mais malgré mes divers essais il n’y a pas eu d’amélioration.

Et puis j’ai vu apparaître sur des forums des posts de webmasters qui rencontre le même problème. Les courbes de crawl de Googlebot sont similaires à la mienne (la première courbe a été prise sur Abondance). Le problème se rencontre beaucoup sur les serveurs mutualisés d’OVH et quelques dédiés. Pas de chance j’ai un dédié.

Comme un probleme n’arrive jamais seul Google considère de plus en plus de pages comme inaccessibles. 4500 hier, 5185 aujourd’hui…

A ce jour je n’ai pas l’impression que ça joue sur le nombre de visiteurs (je suis quand même sur une légère tendance baissière quand mes concurrents tapent les plus hauts) mais j’ai peur que ça deviennent vraiment handicapant.

J’espère qu’OVH travaille sérieusement sur le problème.

Effet secondaire de Google Universal search

La recherche universelle de Google a parfois des effets secondaires négatifs. Malgré mes multiples demandes pour être intégré dans le flux de Google News je n’ai jamais réussi a être admis dans ce club très (trop ?) select car le site serait un blog (Alors que blog finance est inclue dans ces même news). Pas bien grave au premier abord puisque le forex est un monde tellement petit que je n’aurai eu qu’une poignée de visiteurs chaque semaine.

Là ou ça devient stratégique c’est lorsque le marché des changes devient le sujet à la mode dans les médias. Tout le monde (ou presque) en parle et Les news deviennent plus pertinentes que les résultats naturel du moteur. Bilan, sur des requêtes comme Dollar, le haut de la page de Google affiche une liste de news + photos. Sur des mots clés aussi généralistes et ciblés j’ai des chutes de l’ordre de 40% en nombre de visiteurs.

Universal search

La morale de cette histoire : si le thème de votre site devient à la mode ne vous étonnez pas d’avoir une baisse de fréquentation en provenance des moteurs ! (bien sur si vous avez des images et des news référencées ça peut être tout bénef)