Tags

Google annonce pénaliser les sites web qu’il considère comme « sur-optimisés ».

Trop d’optimisation tue l’optimisation

Matt Cutts, chargé du référencement chez Google, vient d’annoncer la prochaine pénalisation des sites sur-optimisés. Le but : revaloriser les sites très pertinents mais mal optimisés au détriment des sites dotés d’une stratégie de référencement naturel très (trop ?) poussée pour une qualité de contenu médiocre. Cette annonce vient d’être confirmée sur le compte Twitter de Google.


 

Une définition de la sur-optimisation

Un site Internet est considéré comme sur-optimisé lorsque son référencement naturel apparait trop parfait aux yeux de Google, et le perçoit donc comme suspect.

Concrètement, cela se traduit par un volume de backlinks trop important (optimisation off page) et une sur-optimisation interne au site (densités des mots-clés dans les balises, headers, titres, l’URL… jusqu’au nom des images).

Google va alors comparer l’optimisation du site suspect avec l’optimisation moyenne des sites du même secteur,  placés sur les mêmes requêtes et les mêmes mots-clés. Si ses soupçons s’avèrent être fondés, Google va alors sanctionner le site.

La Sandbox, ou la boite de Pandore de Google

Les sites sur-optimisés seront sanctionnés par Google et placés dans ce qu’on appelle la Sandbox, entrainant une disparition totale ou partielle des résultats du moteur de recherche pendant une période pouvant durer jusqu’à 6 mois.

  • La Sandbox générale : le site est toujours indexé par Google mais il n’apparaît dans aucun des résultats de recherche associés.
  • La Sandbox ciblée : le site est déclassé des requêtes les plus concurrentielles, souvent recherchées par les internautes.

Pour savoir si votre site à été sanctionné, il suffit de taper son nom de domaine dans la barre de recherche de Google et de vérifier qu’au moins une de ses pages apparaît dans les résultats.

S’échapper de la Sandbox

Cette pénalité n’est pas éternelle mais elle peut être très compromettante pour un site, plus particulièrement dans le domaine de l’e-commerce où l’absence de visite est synonyme d’arrêt brutal des ventes. Retravailler sur le référencement naturel du site pendant cette période de sanction permet cependant d’en écourter la durée.

Voici quelques conseils pour vous en sortir plus rapidement, mais qui peuvent aussi éviter la mise à l’indexe s’ils sont appliqués à temps :

  • Diversifiez les mots-clés et les requêtes ciblés.
  • Intéressez-vous aux requêtes un peu moins concurrentielles, cela peut aussi s’avérer payant.
  • Evitez les noms de domaine exclusivement composés de mots-clés très prisés.
  • Si la cause de la sanction est un volume trop élevé de backlinks (liens croisés), travaillez sur l’obtention de liens sans retour.
  • Collectez des liens à faible PageRank pour tempérer les liens trop qualifiés.
  • Retravaillez votre contenu en utilisant un champ lexical plus large et en diminuant la densité de mots-clés. Lors de la rédaction, gardez à l’esprit qu’il faut séduire vos visiteurs plutôt que le GoogleBot. Un contenu pertinent est la clé de voute d’un site bien référencé.
  • Partez à la chasse au contenu dupliqué et renouvelez-le si cela s’avère être le cas.
 

De nouvelles règles pour un objectif immuable

Cette nouvelle annonce ne révolutionne pas la politique de Google : fournir la meilleure réponse possible aux requêtes des internautes. En conclusion, Google valorisera de plus en plus les contenus utiles aux internautes. Le référencement est un moyen et non une finalité : les sites bien référencés sans contenu pertinent ne sont que des lieux de passage où les internautes ne font que passer et ne reviennent plus.

8 Comments

  • Sonia

    29 mars 2012 at 2 h 32 min

    Avec Google ce n’est jamais évident. Il change les règles souvent. Mais c’est plus que bénéfique pour l’internaute qui tombe trop souvent sur des sites dont leur contenu ne suit pas leur référencement.
    On est loin du temps où les sites spécialisés sur le référencement parlaient d’écrire pour Google. On n’a pas envie de lire de la pub !
    Par contre ça va donner du boulot aux webmasters !

    Répondre
  • Kaliseo

    29 mars 2012 at 9 h 38 min

    Sur quoi basez-vous votre définition de la sur-optimisation ? Matt Cutts n’a a priori parlé que de backlinks.

    Si il faut commencer a mettre des balises title pourries et se louper volontairement sur du W3C pour être bien référencé sur un contenu pertinent… on va jamais s’en sortir 😀

    Répondre
  • La Gazelle du Web

    29 mars 2012 at 13 h 26 min

    Voici justement la phrase de Matt Cutts : « Normalement, nous ne communiquons pas sur les changements à venir, mais il y a une chose sur laquelle nous travaillons depuis quelques mois et que nous allons sortir dans les semaines ou mois à venir. Nous cherchons à relever le niveau du terrain de jeu. Tout ces gens qui sur-optimisent leur site internet au détriment de ceux qui créent un bon site avec un bon contenu. Nous cherchons à rendre GoogleBot plus intelligent, à améliorer notre pertinence et à nous occuper de tous ceux qui abusent en insérant trop de mots-clés sur une page, en échangeant trop de liens ou qui vont bien au delà de ce que nous attendons. Nous avons actuellement plusieurs ingénieurs de mon équipe qui travaillent là dessus. »

    L’interview est disponible sur searchengineland.com http://goo.gl/48YiQ et Matt Cutts évoque la densité de mots-clés dès le premier quart de l’enregistrement.

    Répondre
  • Rod-Leg

    29 mars 2012 at 14 h 39 min

    Le soucis principal est que Google à un quasi-monopole (95%en France), ce qui fait qu’il dicte les règles !
    Est-il possible de se passer de lui pour avoir dur trafic? NON! et il le sait.

    Le déclassement peut être préjudiciable aux site de e-commerce voire fatale même.
    De plus la politique de placer les jeunes sites dans la Sandbox systématiquement est juste écœurante et décourageante.

    Je crois qu’il est temps d’arrêter de valider les pseudo-justifications de Google avec une fausse naïveté, la raison est purement économique!

    Un site marchand qui doit plus de 75% de son trafic à Google et qui se retrouve en Sandbox n’a que 2 solutions soit mettre la clef sous la porte, soit investir dans une campagne Adword .

    Alors non Google n’est pas un amis!

    Répondre
  • Web Rédacteur

    30 mars 2012 at 7 h 52 min

    Cette annonce de Google fait peur à plus d’un webmaster qui ont tendance à tout suroptimiser : du maillage interne aux liens extérieurs, aux balises alt des images, ou encore aux titrailles garnies de mots-clés… L’écriture web a pris une tournure un peu trop « google oriented » ces dernières années, et il est bon de revenir à l’essentiel, écrire pour le lecteur…

    Répondre
  • Martin

    30 mars 2012 at 12 h 28 min

    @Rod-Leg: En même temps, quelqu’un qui dépend à 75% de son audience de Google, c’est de sa faute aussi de ne pas avoir assez diversifié ses sources de trafic (sites partenaires, communiqués de presse, blog corporate, newsletter, réseaux sociaux, trafic direct…)

    Répondre
  • Formation référencement

    11 août 2012 at 11 h 13 min

    Bonjour,
    Je suis tout à fait d’accord avec « Rod-leg » j’ai expliqué cet avis dans un de mes cours en ligne, quelques webmasters n’étaient pas d’accord mais d’autres partageaient mon avis.
    Les règles de Google en ce qui concerne le référencement naturel et le positionnement sont contradictoires la plupart du temps.
    Sa politique se résume en 3 objectifs: le premier c’est gagner plus, la deuxième, c’est de rester monopole et la troisième (qui vient en dernier) servir l’internaute
    Je peux donner des centaines (des milliers même) d’exemples de site qui ne respectent pas les critères du référencement naturel et pourtant ils sont bien positionnés !

    Répondre

Laisser un commentaire