Retour sur le SEO de 2012

Retour sur le SEO de 2012

L'année 2012 arrive à sa fin et déjà les prévisions sur ce que sera le SEO en 2013 apparaissent sur la toile. Mais avant de regarder l'horizon 2013, il convient d'abord de faire une analyse de ce qui s'est passé cette année sur la SEOsphère...

En début 2012, qu'avaient dit les "Madame Soleil du SEO" ?

Avant d'analyser cette année, voyons voir les pronostics qui avaient été faits sur le SEO en 2012, (sources : Jambon BuzzWeb Rank Info et bien d'autres) :

  • Le temps de chargement devait devenir un critère très important pour le référencement
  • Ulra personnalisation des pages de résultats
  • Essor du social media dans les stratégie SEO
  • Montée du réseau social Google +
  • Le développement des Rich Snippets et Micro Datas
  • Prise en compte de moins en moins importante des backlinks entrants
  • De la video dans les SERPs
  • Perte de pertinence du mot-clé dans le nom de domaine

Maintenant, voici ce qui s'est passé sur Google les moteurs de recherche cette année. Cette liste n'est pas exhaustive, et ne correspond qu'à mon point de vue. Chaque nouveauté est donc associée à une Best Practice.

...Et que s'est-il vraiment passé ?

Une place encore plus importante pour le local

Selon une étude de la société Chitika, (chez Intestable.org on adore cette Chikita), 75% des recherches sur Google ont une connotation locale, ce chiffre montant à 71% sur Bing. Il est donc primordial, pour toute entreprise possédant une "vie offline" et notamment des points de vente, de créer une fiche Google Local, d'autant plus que des informations complémentaires sont désormais affichées dans les SERPs :

 

Et ils nous ont remis une couche de Rich Snippet

Autre élément qui s'est développé en 2012 dans les SERPs, les Rich Snippet qui peuvent prendre de nombreuses formes. Aujourd'hui, plus un résultat possède d'éléments différenciants dans la SERP, plus son taux de clic augmente (Google parle d'une augmentation de CTR de 30% pour le SEA... applicable dans une moindre mesure au SEO).

L'author Rank ou Google qui se paye ta Photo 

Parmi elles on peut citer la balise permettant d'afficher la photo d'un auteur d'un article.  Cette balise s'articule comme ceci : <a href="http://exemple.com/" rel="author">Eric Dupont</a>. Elle permet ainsi de lier un site ou une page donnée à un contributeur via sa page Google +.  Découvrez comment associer facilement une page à son compte Google +

Les microformats ou Schéma.org dans tes résultats

Autres balises importantes à mettre en place, les balises de prix, le fil d'Ariane, les avis utilisateurs, les commentaires, etc. Voici un bel exemple de site ayant bien compris l'intérêt de ces balises, qui n'augmentent pas directement le SEO mais le CTR (donc indirectement le SEO).

Toutes les balises sont sur le site du Schema.org.

 

Quelques évolutions du coté du Webmaster tool

Le système "anti-netlinking" de Google ou un nouveau formulaire de Délation

Comme on le sait, Google est bien incapable de détecter le Netlinking "de qualité"... Alors ils ont eu la super idée de nous faire dénoncer les liens pas naturels pour que Google puisse identifier plus facilement les sites qui vendent leurs liens... Google Webmaster Tool et la console de Bing permettent désormais de désavouer ces liens qui ne seraient pas naturels et susceptibles de pénaliser un site. Il est opportun de les utiliser tous les deux... Même si on peut penser que l'optimisation sur Bing permet l'amélioration du SEO sur Google (cf. mon article sur le blog Yapasdequoi.com), le moteur de recherche de Microsoft devrait s'améliorer l'année prochaine, donc il faut le prendre en compte tout de même.

Mais oui, moins de 5% de part de marché pour Bing... cela doit être pris en compte... LOL

Enfin quelques évolutions utiles : Le détecteur de bêtises de développeurs

Tout le monde sait que les développeurs sont des flémards... en tout cas c'est ce que l'on constate quand on fait des audits techniques.

Donc afin de faciliter la vie de ces flémards de Dev, Google Webmaser Tool améliore son interface de détection des erreurs, en donnant plus d'informations sur la nature des problèmes : Erreurs au niveau du site (DNS, serveur) et des URLs (Soft 404, Connection refusée, erreurs 404, etc.). Il devient donc primordial de checker ces erreurs de manière quotidienne et de s'en occuper... Pourquoi ? Car plus Google rencontre de problèmes, moins il ira recrawler et votre site, et donc il favorisera les concurrents dont le site fonctionne... tout simplement.

Aller... chez Intestable.org, on aime les Dev... alors sortez vous les doigts du xxxxx et faites nous de beaux sites seo friendly...

 

Bye Bye les "Sites de Pubs"

Avec son algorithme "Lay Out", Google recommande aux webmasters de ne pas trop mettre de publicité sur le site, et plus particulièrement haut dessus de la ligne de flottaison. Pour le SEO, il est donc encore plus important qu'avant d'avoir du contenu accrocheur et optimisé dès le début de page afin de convaincre le crawler l'internaute de continuer sa lecture.

T'avais un domaine avec le mot clé dedans ? Aller salut !

Egalement, avec l'update "EMD" (Exact Match Domain), Google veut désacraliser les sites possédant de nombreux mots-clés dans le nom de domaine, car soyons honêtes les sites du genre rachat-de-credit.fr ou assurance-voiture-pas-cher.fr remontaient toujours très bien dans les pages de résultats... Cela semble fonctionner car les EMD sont désormais absents sur des requêtes ultra concurrentielles comme "crédit" ou "assurance". Il ne faut donc a priori plus recommander d'intégrer le mot-clé visé dans le NDD (même si cela fait bien lontemps qu'un référenceur White Hat n'utilise plus ce genre de pratique)

The Meta Keyword Strikes Back

La balise Keyword fait son grand retour après 10 ans d'absence (et oui, cette balise n'est plus à remplir!!). Mais cette fois, celle-ci doit être intégrée uniquement pour Google News afin d'aider le crawler à mieux comprendre le sujet de l'article et donc mieux l'indexer dans sa plateforme d'actualités. Elle doit être du type : "<meta name="news_keywords" content="Le SEO en 2012">". Un peu d'aide sur le blog Google

2012, l'année où Google aura enfin appris à crawler les résultats Paginés

Afin de mieux crawler les pages de listings d'articles ou de produits, les crawlers de Bing et Google comprennent désormais les balises de pagination rel="next" et rel="prev". Aussi, il est possible de fournir un lien vers tous les liens d'un seul coup à l'aide d'une seule page "view all" en s'aidant de la balise anti-duplicate "link rel canonical"...

SEO et poissonerie, ou l'apologie de la fraîcheur

Avec l'une des modifications de son algo Freshness, Google a mis en place un système pour prioriser, sur des requêtes dites "chaudes" (en rapport avec l'actualité, récurrents), les pages récentes. Pour le référencement, il faut donc désormais créer de nouveaux contenus au fur et à mesure de la vie du site, ainsi qu'actualiser des articles anciens pour maintenir une information à jour tout en modifiant les éléments que j'apelle différenciants (produits ou articles complémentaires, flux RSS / Twitter / Facebook, mise en place des commentaires, etc.).

Et qui dit Poisson dit Pinguin

Grâce à son nouvel algorithme Google Pinguin, Google veut mettre à mal les techniques de linking externe un peu barbares,(loooool aller dans le vent Google, en tout cas en ce qui me concerne), basées sur des liens de mauvaise qualité, non naturels et possédant trop d'ancres optimisées. Pour tout référenceur plutôt White, il est donc recommandé d'utiliser dans sa stratégie de linking, des liens de qualité, sur des sites de confiance, des ancres pas toujours optimisées (on parle de 60% sur le mot-clé, 40% sur du non optimisé). Petit cadeau Intestable: quels éléments checker pour déceler une potentielle pénalisation de Google Pinguin

Et enfin le Panda en mode Kick Boxing

Quant à Panda, celui-ci à blacklisté une centaine de sites d'annuaires et pénalisé presque 500 d'entre eux. Même si aujourd'hui les annuaires s'utilisent de moins en moins dans la stratégie SEO, il est clair qu'ils fonctionnent encore, à condition que cela soit bien fait (descriptions uniques, pas de lien retour, annuaires thématiques et de qualité, etc.).

Et pendant ce temps là, les réseaux sociaux paraissent toujours inutiles

Les réseaux sociaux, qui devaient gagner du poids dans les stratégies de SEO, n'ont pas réussi à me convaincre. Malgré les dizaines de tests réalisé par quelques confrères, aucun n'a montré d'impact réel et surtout durable sur le référencement d'une page. Même s'il a été prouvé qu'un lien dans un tweet est rapidement crawlé (on parle de 3min pour indexer!) et qu'un lien fréquemment retweeté gagne un positionnement éphémère, les réseaux sociaux ne jouent pas de rôle déterminant dans la stratégie SEO d'un site. D'autant plus que, à ce que je croyais il y a encore quelques mois, Google + n'a aucun impact sur le référencement... Mais il est toutefois très important de travailler sa présence sur les réseaux sociaux car ils apportent trafic, visibilité, crédibilité et montrent aux moteurs de recherche qu'un site est "trustable".

Voici donc ce qui conclut mon petit retour SEO sur l'année 2012... 

Quelles autres actualités et changements ont bouleversé votre SEO cette année ? 

Et si vous avez des prédicitions pour 2013... 

Lâchez-vous et faites péter les commentaires.

A propos de l'auteur

Portrait de Nicolas Plantelin

Nicolas Plantelin est un expert du Search Marketing. Il a eu l'occasion de faire du consulting SEO/SEA pour des grands comptes, avant de devenir responsable du SEO chez l'annonceur. Suivez-le sur Google+ et Twitter pour suivre l'actualité du Search !