Matt-Cutts-Nofollow-Pages-InternesMatt Cutts, chef de l’équipe antispam de Google, revient cette semaine avec une nouvelle vidéo dans laquelle il répond à cette question d’un internaute espagnol :

Does it make sense to use rel= »nofollow » for internal links ? Like, for example, to link to your login page ? Does it really make a difference ?

En français : Faut-il utiliser l’attribut nofollow pour les pages internes, par exemple pour lier sa page de login ? 

A cette question, Matt Cutts répond de manière ambiguë, expliquant qu’on ne devrait pas le faire, même si cela ne risque pas de compromettre la visibilité du site internet en question. En effet, pour Matt Cutts, faire pointer des liens nofollow vers sa page de login ou vers n’importe quelle page qui semble inutile n’aura pas d’impact négatif sur la visibilité ou le référencement du site internet.

Cependant, le chef de l’équipe antispam de Google annonce également dans cette vidéo que, à l’inverse, ne pas ajouter l’attribut nofollow dans ces pages internes n’aura pas non plus d’impact négatif et qu’en général, il est préférable de laisser Google crawler le plus de pages possible de votre site internet.

Enfin, dans la plupart des cas, un attribut noindex sera peut-être préférable à un nofollow sur le lien interne.

Voici la vidéo complète de Matt Cutts :

Que pensez-vous de ce que dit Matt Cutts ? Ne trouvez-vous pas troublant qu’il dise de ne pas mettre d’attribut nofollow quand on sait que Panda pénalise les pages qui apportent peu de contenu ?

 

Infographie : 5 Stratégies Seo Pour Les Entreprises

De nos jours, se positionner de manière idéale sur les moteurs de recherche peut avoir une influence considérable sur les ventes et la notoriété d’une entreprise. En effet, se positionner dans les 3 premières positions pour un mot clé spécifique sur Google ou figurer en 3e page n’aura pas le même impact pour l’entreprise.

Pour se positionner le plus haut possible sur les moteurs de recherche, il faut que l’entreprise maîtrise parfaitement les stratégies Search Engine Optimization (SEO ou optimisation pour les moteurs de recherche) ou qu’elle les délègue à une agence de référencement.

Se positionner dans les premiers résultats des moteurs de recherche n’est pas chose facile et ce n’est pas donné à tout le monde. En effet, les techniques de référencement évoluent jours après jours et il faut sans cesse rester à l’affût des dernières actualités et des mises à jours des algorithmes de Google (Panda ou Penguin) pour rester dans la course.

Pour aider les entreprises qui référencent leurs sites par elles-mêmes, Act-On a réalisé une infographie résumant les principales techniques que les entreprises se doivent de maîtriser.

PS: Dans le cas où vous voudriez déléguer votre référencement, n’hésitez pas à nous contacter 😉

Infographie : 5 Stratégies Seo Pour Les Entreprises

Via www.business2community.com

Après la petite interruption de nos actualités pendant le début du mois d’août, nous reprenons petit à petit nos anciennes habitudes. Et comme nous sommes lundi, nous vous proposons une nouvelle infographie concernant le Search Engine Optimization (SEO).

Cette infographie a été réalisée par Relevance.com et relayée ce weekend par Business2community. Comme le SEO a connu une évolution particulièrement dynamique ces 10 dernières années, Relevance.com a repris dans son infographie les dates importantes de cette évolution et a mis en évidence le changement entre l’ancienne version du SEO et les nouvelles pratiques qu’il faut privilégier à l’heure actuelle.

Voici l’infographie en question :

Infographie : 10 Ans D'Évolution Dans L'Écosystème Seo

Les dates essentielles du SEO

Parmi les dates importantes figurant dans cette infographie on épinglera :

Février 2003 : Google sort l’Hilltop algorithme. Il sert à trouver les résultats de recherche des sites d’autorité.

Décembre 2010 : Google et Bing commencent à utiliser les réseaux sociaux pour déterminer le positionnement dans les moteurs de recherche. Le SEO commence à évoluer avec l’importance croissante des contenus pertinents et de l’engagement des utilisateurs.

Février 2011 : Google lance une mise à jour de Panda visant à éliminer les sites internet de pauvre qualité qui polluent les résultats des moteurs de recherche.

Avril 2012 : Google lance Google Penguin, une mise à jour ayant pour principal objectif de pénaliser les liens provenant de sites web de faible qualité

Vidéo Matt Cutts : &Quot;Quelles Sont Les Idées Fausses Du Seo ?&Quot;Dans une nouvelle vidéo publiée hier sur Youtube, Matt Cutts tente d’expliquer trois thèmes parmi les idées fausses provenant de l’industrie du SEO. En 5 minutes, le chef de l’équipe anti-spam de Google explique :

  • Que les référenceurs confondent souvent les mises à jour des algorithmes avec le rafraîchissement de données;
  • Que les algorithmes Panda et Penguin n’ont pas vocation de faire rentrer plus d’argent dans les caisses de Google;
  • Et enfin que les référenceurs se centrent trop sur la stratégie de linkbuilding et sur les moteurs de recherche.

Algorithmes et mises à jour :

La principale différence entre une mise à jour de l’algorithme et un rafraîchissement des données de celui-ci consiste dans le fait que lorsque Google effectue une mise à jour, cela influence la manière dont les résultats sont classés, filtrés et indexés. A l’inverse, le rafraîchissement des données met simplement les données à jour.

Matt Cutts nous offre un exemple : Penguin 2 et 3 étaient des rafraîchissements de données tandis que Penguin 4 (ou Penguin 2.0) était une mise à jour.

Les gains de Google via Panda et Penguin :

Beaucoup de personnes pensent que Panda et Penguin n’existent que pour augmenter les revenus de Google. Cependant, Matt Cutts tient à clarifier cela en précisant que les algorithmes et les résultats de recherche organique sont séparés au niveau des revenus. Au contraire, Matt Cutts explique que Panda peut avoir des conséquences négatives sur les bénéfices de Google car son objectif est de faire disparaître les contenus de faibles qualité. Or ces sites sont principalement monétisés par les revenus AdSense.

Les référenceurs se concentrent trop sur le link-building

Ce n’est pas la première fois que Matt Cutts utilise ce genre de discours : les référenceurs se concentrent trop sur le link-building et sur le moteur de recherche au lieu de travailler pour l’utilisateur. Pour lui, les grands sites se basent avant tout sur l’expérience de l’utilisateur car plus ce dernier est content, plus il le recommandera à d’autres utilisateurs.

Voici la vidéo complète de Matt Cutts : « What are some misconceptions in the SEO industry ? »

Merci à Abondance et à Searchengineland

Matt Cutts : &Quot;Le Black Hat Et Les Liens Spams Seront Moins Visibles Après L'Été&Quot;Matt Cutts a publié une nouvelle vidéo hier après-midi. Dans cette dernière, le chef de la recherche anti-spam de Google répond à certaines questions que se posent webmasters et référenceurs quant à l’avenir du référencement. Plus précisément, la question à laquelle Matt Cutts a répondu était:

« What should we expect in the next few months in terms of SEO for Google? »

Dans cette vidéo un peu plus longue qu’à l’accoutumée (7 min 24 avec un t-shirt noir rappelant le logo de Firefox), Matt Cutts dresse 10 points qu’il résume à la fin de la vidéo. 10 points qui devraient permettre d’augmenter les résultats de recherche sur Google en récompensant les bons sites et en pénalisant les mauvais (spammeurs, black hat, etc.). Pour rappel, nous vous indiquions hier que ce même Matt Cutts annonçait une nouvelle version de Penguin pour les prochaines semaines (« Penguin 2.0 sortira dans quelques semaines« , qui est d’ailleurs le premier point énoncé par Matt Cutts).

  1. La prochaine mise à jour de Penguin va aller plus loin et va avoir plus d’impact que les précédentes. 
  2. Le publireportage risque d’être plus sévèrement combattu par l’équipe anti-spam de Google car ils gonflent artificiellement les profils.
  3. Les requêtes spam : Google va également se pencher de manière plus radicale sur certaines requêtes dites « spammy », c’est-à-dire des requêtes à tendance pornographiques par exemple.
  4. Google veut aller plus loin (« upstream ») pour dissuader les spammeurs et pour diminuer la valeur des liens qu’ils acquièrent.
  5. Une analyse des liens plus sophistiquée : Google est actuellement en train de mettre au point des logiciels beaucoup plus sophistiqués pour analyser les liens.
  6. Continuer à améliorer la prévention pour les sites piratés : ces derniers temps, Google a beaucoup travaillé pour prévenir les internautes qu’un site pouvait potentiellement avoir été piraté. L’équipe anti-spam de Matt Cutts veut continuer dans cette optique et les enlever des résultats de recherche.
  7. Booster l’autorité : Google veut donner plus d’autorité aux sites qui sont des références dans leur industrie, dans leur communauté. Cela devrait permettre à ces sites dits « d’autorité » de gagner des places dans le classement des résultats de recherche.
  8. Adoucissement de Panda : d’après Google, certains sites touchés par Panda sont des cas « limites ». Du coup, Matt Cutts cherche un moyen d’adoucir l’impact de Panda sur certains sites en analysant d’autres qualités afin que ces sites ne soient pas touchés par Panda.
  9. Les regroupement des URL d’un même nom de domaine dans la première page de résultats : le nombre de noms de domaine identiques figurant sur la première page de résultats devrait être réduit afin de rendre cette page de résultats plus diversifiée. Par contre, une fois sur la deuxième page de résultat, des noms de domaine identiques pourront plus facilement se retrouver.
  10. Améliorer la communication avec les webmasters : Matt Cutts veut offrir des informations plus détaillées aux webmasters dans le Google Webmaster Tools.

Voici la vidéo complète dans laquelle Matt Cutts énumère ces différents points dans le but d’empêcher le black hat de truster les premières places du résultat de la recherche.

Source : Searchengineland.com

 

Penguin 4 Sortira Dans Quelques SemainesVendredi passé, Jamie Dodd, un twitto expert en SEO a demandé à Matt Cutts via Twitter s’il pouvait confirmer la mise à jour de Penguin pour le weekend qui vient de s’écouler. Et sa question était légitime puisque Matt Cutts avait annoncé il y a quelques semaines que des mises à jours de Panda et de Penguin allaient bientôt voir le jour.

Dans sa réponse à la question de Jamie Dodd, Matt Cutts a d’abord expliqué qu’il n’y avait pas eu de mises à jour durant la semaine, avant de préciser qu’il y en aurait certainement une dans les semaines qui viennent. Le chef du département anti-spam de Google a aussi laissé entendre que cette nouvelle mise à jour devrait être plutôt important car l’a appelée Penguin 2.0, « La nouvelle génération de de Penguin ».

Une autre raison pour laquelle il pourrait s’agit d’une mise à jour importante consiste dans le fait qu’il n’y a plus eu de mises à jour de Penguin depuis le 5 octobre 2012, soit près de 8 mois de disette alors qu’il y avait eu trois mises à jour de Penguin durant l’année 2012.

Pour éviter d’être pris dans les griffes de Penguin, nous vous conseillons de suivre quelques conseils que vous trouverez dans le guide pour rester SEO friendly après Penguin.

Merci à Olivier Duffez pour avoir attiré notre attention sur cette information dans son article.

 

Il y a encore quelques années, les stratégies de référencement utilisées par certaines agences étaient simples car elles consistaient à générer des milliers de liens (spams), à proposer quelques mots clés sur certains sites et à débourser un peu d’argent pour que le mot clé désiré se situe en bonne position « en fin de journée ». 

Retour sur l’héritage du spam

Référencement : Le Spam, De L'Histoire Ancienne ?

Cependant, aujourd’hui, beaucoup de référenceurs ont travaillé afin de faire évoluer leurs pratiques mais il reste encore un certain héritage du spam qu’il faut essayer de nettoyer.

Depuis le début des pratiques en référencement, le spam a été présent. En effet, il y a toujours eu des professionnels qui ont fait du « keywordstuffing », qui ont proposé des commentaires spams sur des blogs, qui ont créés des textes générés par des robots ou qui ont acheté des liens. D’ailleurs, certains référenceurs peu scrupuleux utilisent encore et toujours (malheureusement) ce genre de pratiques, aussi risquées soient-elles.

Cependant, à l’époque, ces techniques étaient efficaces et c’est pour cette raison que certains spécialistes s’y sont engouffrés. Malheureusement, ces techniques ont engendré du spam et ces spécialistes n’en connaissaient pas encore les conséquences.

Google s’est défendu

Référencement : Le Spam, De L'Histoire Ancienne ?Avec le recul, on se rend compte que ces pratiques n’étaient pas bonnes. Aujourd’hui, tout référenceur doit avoir compris qu’un bon lien est un lien naturel, pertinent et utile. En d’autres mots, le lien doit améliorer le site internet, ne pas seulement servir les moteurs de recherche, ne pas faire partie d’une série d’ancres sur-optimisées sur des blogs non-pertinents et, enfin, être construit à destination des internautes.

C’est pour éviter ces pratiques néfastes pour l’expérience de l’utilisateur que Google a d’abord lancé la mise à jour Panda afin de toucher les sites proposant des contenus dupliqués ou à peine changés. Puis il a mis sur pied le filtre Penguin afin de lutter contre le spam et les abus d’ancres identiques dans les articles.

C’est à ce moment-là que les experts du référencement qui pratiquaient le spam ont commencé à penser différemment.

L’évolution du référencement

Après Google Panda et Penguin, les sites qui avaient acheté des liens en masse ont perdu énormément de places dans les résultats de recherche. Du coup, il a fallu revoir les règles du jeu.

Aujourd’hui, si l’on veut offrir un référencement efficace à nos clients, il n’est plus question de mettre en place de telles pratiques et d’offrir au site internet des liens par milliers tous les mois. Dorénavant, les liens doivent être créés par des humains, pour des humains et les sites ne doivent plus disposer de milliers de liens par mois mais seulement d’une dizaine de liens efficaces.

Pour offrir un référencement de qualité à l’heure actuelle, il est nécessaire de :

  • Créer des liens pertinents sur les sites qui sont modérés et lus par des humains;
  • Examiner chaque site sur lequel nous travaillons et toujours fournir du contenu utile au site;
  • Eviter de se tourner vers la solution de facilité, c’est-à-dire de payer pour des outils qui créeront des milliers de liens (mais qui seront discrédités par Google);
  • Se concentrer sur des liens durables. Ce ne sont pas les plus faciles à mettre en place mais l’effort en vaut la peine car ils ne seront jamais discrédités. Il vaut mieux prendre un peu plus de temps pour mettre un bon lien en place que de devoir revoir toute sa stratégie de référencement;
  • Privilégier la qualité plutôt que la quantité. Dix liens solides et pertinents tous les mois sont préférables à mille liens douteux.

En conclusion

Bien que courte, l’histoire du référencement a déjà eu le temps de laisser quelques traces d’ombres derrière elle et le spam en fait partie. Beaucoup de clients ont eu de mauvais échos suite à ces pratiques douteuses utilisées dans le passé par certaines agences. Dorénavant, pour se construire un nouvel héritage, il est important de privilégier les techniques de référencement pertinentes et transparentes. Entre autres choses, les liens doivent aujourd’hui être éthiques, durables et efficaces. Même si certains continuent à proposer des liens spams, il faut espérer que le monde du référencement se tourne définitivement vers le « white hat ».

Source : Searchenginewatch

Infographie : Linkbuilding, Les Erreurs À Ne Pas Faire !
Crédit : 6buzz.com

Depuis quelques années, Google met à jour des algorithmes qui peuvent faire mal à un site internet et à son référencement. Avoir un bon link building est important lorsque l’on veut gagner en visibilité. Mais attention à ne pas commettre d’erreurs pour ne pas connaitre les foudres de Penguin ou de Panda.

Pour éviter que votre site ne perde complètement sa visibilité et pour vous empêcher d’aller trop loin dans le link building, les gens de Digitalnetagency ont créé une infographie (« The Link Apocalypse ») reprenant les erreurs récentes qui ont été faites par quelques entreprises (dont Google himself !).

Voici donc les quelques erreurs à ne pas reproduire :

Infographie : Linkbuilding, Les Erreurs À Ne Pas Faire !

Via Searchengineland

Les Solutions Pour Rester Seo Friendly Après Penguin ?

Il y a près de huit mois, le 24 avril 2012, Google lançait un algorithme visant à lutter contre le spam sur le web. Son impact fût finalement tellement important dans la communauté SEO qu’on a fini par le baptiser par le doux nom de Penguin, en référence au précédent algorithme de Google : Panda.

En quoi consiste la mise à jour Penguin ?

En quelques mots, l’objectif de la mise à jour de Penguin était de faire descendre les sites web qui violaient les règles des webmaster de Google. Autrement dit, les sites qui utilisaient des techniques de manipulation pour augmenter leur classement ont perdu des places dans les résultats de recherche sur Google. Leur référencement a donc été lourdement touché.

Ces techniques de manipulation qui ont été visées par Google se nomment « black hat » et comprennent du bourrage de mots clés, de la dissimulation de mots clés, de la participation à des systèmes de liens, de l’utilisation délibérée de contenu dupliqué (« duplicate content ») ou encore de l’utilisation excessive de correspondance exacte de mots clés dans les liens et le contenu.

Si votre site a été touché par les différentes mise à jour de Penguin ou si, plus simplement, vous avez envie de vous positionner sur Google sans prendre de risques grâce à une agence de référencement (ou personnellement), voici ce qu’il faut faire et ne pas faire :

Sur les sites SEO :

Ce qu’il faut arrêter de faire :

  • Mettre une série de mots clés dans le titre de la page, ce qui conduit à ne donner plus aucun sens à celui-ci;
  • Utiliser les Méta Keywords (mots clés) car ils ne servent plus à rien depuis un petit moment. On peut toujours en insérer un ici ou là mais les moteurs de recherche n’en tiennent plus compte;
  • Placer vos mots clés principaux dans les balises H1 et les mots clés secondaires dans les balises H2, H3, etc. Vous pouvez placer ces mots clés si cela ajoute du sens mais ne perdez pas votre temps à essayer des les introduire dans chaque titre ou sous-titre. Vous ne devez jamais placer ces mots clés sans mots complémentaires qui ajoutent du sens à vos titres;
  • Pour vos images, utilisez une description du contenu plutôt qu’une addition de mots clés;
  • Les contenus de faible qualité, les contenus dupliqués et les contenus pauvres sont à proscrire de votre site;
  • Placer trop de liens de navigation dans l’en-tête et dans le pied-de-page;
  • Utiliser de façon excessive les liens internes qui utilisent des mots clés comme ancre du texte;
  • Construire un site web pour les moteurs de recherche et non pour les internautes.

Ce qu’il faut faire :

  • Votre site web doit avoir une architecture SEO Friendly. Pour cela, il faut utiliser toutes les nouvelles balises disponibles comme par exemple rel=auteur;
  • Utiliser des titres descriptifs qui intéressent les internautes. Ceux-ci doivent avoir envie de naviguer sur votre site lorsqu’ils voient votre description; non pas parce qu’ils retrouvent leur mot clé dans la description mais parce qu’elle l’intéresse;
  • Utiliser un appel à l’action dans votre méta description en ne vous concentrant pas sur les mots clés. Comme le titre, la méta description doit être passionnante et pousser l’internaute à cliquer dessus;
  • Donner du contenu pour les utilisateurs. Cela devrait être clair à présent : votre site ne doit pas être fait pour les moteurs de recherche mais pour les internautes.
  • Utiliser des boutons de partage pour les réseaux sociaux afin de permettre aux internautes de partager facilement et socialement votre site web;
  • Avoir un taux de chargement de page le plus bas possible;
  • Mettre à jour un blog avec des informations utiles, fraîches et uniques qui donnent envie aux internautes de les partager;
  • Placer des informations utiles sur son site comme l’adresse réelle, le numéro de téléphone, etc.
  • Proposer des expériences de clients, des cas d’études et des témoignages vidéo qui permettent de convertir plus facilement les internautes en clients.

Sur les autres sites (Link Building):

Durant la mise à jour de Penguin, la mise en place de liens faciles a été extrêmement touchée. Comme les liens entrants sont toujours un facteur important du classement de votre page, il est nécessaire de porter une attention aux liens qui fonctionnent vraiment et ceux qui peuvent faire du mal à votre site.

Ce qui n’est pas recommandé:

  • Annuaires gratuits
  • Echange de liens
  • Les liens payants/parrainés
  • Liens provenant de « content spinning »
  • Liens non-naturels
  • Liens provenant de contenus dupliqués
  • Liens provenant de sites interdits/pénalisés
  • Utilisation excessive de mots clés exact comme texte d’ancre

Ce sur quoi il faut se concentrer :

  • Avoir des liens provenant de sites qui sont pertinents.
  • Varier les mots clés comme texte d’ancre
  • Marketing de contenu : il faut se concentrer sur la production de contenu naturellement partagée et liée. Il faut donc gagner des liens en plus d’en bâtir

Conclusion :

Les moteurs de recherche évoluent de plus en plus et il faudra toujours s’adapter aux mises à jour telles que Panda ou Penguin (qui ne sont sans doute pas les dernières à voir le jour). Il ne faut donc pas uniquement se concentrer sur le classement des sites internet, mais garder un oeil attentif à la marque et à la longévité du classement.

Si vous avez remarqué que votre site web avait été pris dans les mailles du filet tendu par Penguin, n’hésitez pas à nous contacter. Nous mettrons tout en oeuvre pour remettre votre site internet sur les bons rails afin d’être à nouveau visible sur les moteurs de recherche. Referenceur.be vous propose également un audit personnalisé gratuit de votre site internet.

N’hésitez pas non plus à commenter cet article si vous vous posez des questions ou si vous désirez plus d’informations.