L’article suivant est une traduction de l’interview d’un ex-googler, Andre Weyher, membre de l’équipe anti-spam de Matt Cutts.
Comme d’habitude, il faut savoir lire entre les lignes, mais cela peut vous donner quelques indices sur les méthodes et la mentalité des responsables de la lutte contre la triche chez Google. Surtout, c’est une autre source que notre cher Matt Cutts…
Interview avec Andre Weyher, ex googler anti-spam
Quel était votre rôle dans l’équipe de Matt Cutts et pour combien de temps ?
L’équipe anti-spam est une assez grosse zone chez Google. Cela comprend beaucoup de personnes qui travaillent vers un seul but : préserver les résultats de recherche organiques des sites de mauvaise qualité et pénaliser ceux qui ont obtenu leur positionnement grâce à des techniques répréhensibles par les consignes Google.
La confusion est courante avec l’équipe d’ingénieurs en charge de la création de l’algorithme. Pourtant, ce sont deux entités séparées.
Cela n’est pas non plus les Quality Raters, dont vous entendez souvent parler.
Au sein de l’équipe anti-spam, chacun possède sa propre spécialité. J’étais responsable de la qualité du contenu et du profil des backlinks.
Je suis resté chez Google pendant 4 ans 1/2 et j’ai passé 2 ans dans l’équipe de Matt Cutts.
Quel est le procédé de Google pour déterminer quand appliquer une pénalité manuelle sur un site, basée sur son profil de liens entrants?
Très bonne question! Bien sûr, certains éléments sont top secrets, mais le principe est plutôt simple.
J’observe souvent des gens qui prennent une approche très stricte et mathématique dans l’audit d’un profil de liens. C’est bien d’agir ainsi si vous doutez, mais c’est aussi important d’utiliser son intuition. L’analyste qui audite un profil de liens doit regarder la qualité des pages qui hébergent les liens et les ancres utilisées. Si le profil et les ancres ne sont pas cohérents avec ce qu’on considère un « profil naturel », une action est requise.
Prenons l’exemple d’un site de voyage qui reçoit 100 000 backlinks, dont 90 000 vont utiliser l’ancre « voyage pas cher » ou « réservation de billet d’avion », c’est évidemment suspect car ce cas de figure n’est pas possible si les liens étaient naturels.
La qualité de la page qui héberge le lien est importante. Est-elle authentique ou simplement utilisée pour construire un lien ?
Comment l’algorithme Google Pingouin détermine les domaines à pénaliser ?
Tout d’abord, c’est important de comprendre qu’être « giflé par Pingouin » n’est pas la même chose qu’une pénalité. C’est une nouvelle manière de dévaloriser le positionnement. Une pénalité est beaucoup plus sévère.
Pingouin est une mise à jour énorme et très compliquée, dont seulement un petit nombre de personnes connaissent exactement tous les tenants et aboutissements.
L’objectif principal est de combattre les techniques les plus communes de Black Hat SEO. La majeure partie était gérée manuellement auparavant, alors que c’est désormais automatisé.
Maintenant, c’est plus compliqué de s’en sortir avec des choses qui marchaient il n’y a pas si longtemps.
L’élément le plus évident focalise sur un positionnement acquis grâce à des volumes importants de liens de mauvaise qualité, mais cela prend aussi en compte des éléments « on page » comme le keyword stuffing et la suroptimisation de tags ou du maillage interne.
Comment Google détecte un réseau de blogs et/ou de « mauvais voisinage » ?
Les moteurs de recherche utilisent les empreintes sur les sites pour identifier des signaux de propriété. Si un site en particulier utilise des techniques qui ne respectent pas nos consignes, c’est fort probable que les autres sites du même propriétaire font la même chose.
Google possède des techniques avancées pour dénicher tous les sites au sein d’un même voisinage et va souvent pénaliser le réseau tout entier si des techniques similaires se retrouvent partout.
Malheureusement, je ne peux pas aller plus en détails au sujet des outils utilisés, mais ils sont très avancés et peuvent renifler n’importe quoi.
Quel est le meilleur moyen de soigner un site qui a reçu un message de pénalité manuelle via les Google Webmaster Tools ?
Cela dépend du type de pénalité, mais il existe deux scénarios. Le premier concerne la qualité de la page en elle-même et le second se préoccupe des backlinks.
Dans le premier cas, il s’agit simplement de questionner la valeur ajoutée sur votre site. Dans la plupart des cas, la pénalité va s’appliquer à un site qui présente des liens d’affiliation, sans offrir de valeur ajoutée au visiteur, mis à part l’envoi vers un site tiers. Dans ce cas, le webmaster doit focaliser sur l’ajout de contenu valable sur la page pour montrer à Google qu’il y a d’autres raisons de visiter le site, plutôt que purement enrichir son propriétaire.
Dans le second cas, c’est plus compliqué. Si vous avez profité d’une stratégie faible de netlinking, vous devez éliminer tous les mauvais liens possibles. Cela peut être un procédé long et compliqué, mais le nouvel outil de Disavow dans les GWT devrait simplifier la chose.
Vous devez faire très attention dans les choix d’élimination via l’outil Disavow!
Encore une fois, utilisez votre intuition et ne coupez pas simplement les liens en-dessous d’un certain PR; un page à faible PR n’est pas forcément mauvais. La pertinence de la thématique et l’authenticité sont bien plus importants que le PR.
Quel est le meilleur moyen de redresser un site affecté par Google Pingouin ?
Cela devient compliqué. Dans le cas d’une pénalité, les actions à effectuer sont claires. Par contre, après une rétrogradation à cause de Pingouin, les raisons ne sont pas claires dans la plupart des cas.
J’aurais espéré qu’il y ait une réponse limpide à donner, mais le seul conseil que je puisse donner est d’ausculter son site avec un œil très critique. Il faut essayer de trouver ce que Google a trouvé, qui ne soit pas en accord avec ses règles.
D’après ce que je vois depuis que j’ai quitté Google, beaucoup de webmasters se reposent sur des techniques risquées. Depuis Pingouin, c’est moins facile de s’en tirer ainsi.
Ainsi, mon conseil est d’arrêter les techniques borderlines pour focaliser sur la création de contenu intéressant et utiliser les signaux sociaux comme leviers. Ces derniers sont devenus importants.
Quels sont les plus gros mythes que vous connaissez à propos des « mauvais liens » ou pénalités sur les profils de liens au sein de la communauté SEO ?
Je pourrais écrire un livre sur ce sujet! SEO est un titre que n’importe qui peut s’attribuer. Le résultat est qu’il y a autant d’opinions qu’il y a de référenceurs.
Parmi les fausses idées courantes, j’inclus « les annuaires sont tous mauvais » ou « tout ce qui est en-dessous d’un certain PR est considéré comme spammy par Google ».
Je vois beaucoup de gens qui paniquent et coupent la tête pour soigner un mal de tête à cause d’un manque flagrant de connaissances.
Le plus dangereux pour moi est de penser qu’un système automatisé de netlinking doit être bon s’il est cher.
Google a été très clair sur sa volonté de voir des liens au mérite, qui soient un vote de confiance AUTHENTIQUE.
Tout ce qui s’achète n’est pas considéré comme de la qualité par Google et fait prendre des risques à votre site.
Comment doivent se préparer les référenceurs pour les prochaines mises à jour d’algorithme en rapport avec les profils de liens ?
C’est difficile de prédire le futur, mais vous pouvez être sûr que Google devient plus efficace à combattre tout ce qui est en jeu actuellement. Ainsi, si certains s’en tirent encore avec des techniques spammy, c’est seulement une question de temps avant que Google trouve le moyen de les identifier et de les pénaliser.
Je pense que le meilleur moyen de se préparer consiste à mettre en place une stratégie intelligente « on page » et de maillage interne. « Off page », le netlinking doit focaliser sur la construction de relations. Cela veut dire que les liens obtenus proviennent d’une source qui possède une raison authentique de lier votre site.
La pertinence de la thématique du partenaire est la clef!
Quels sont vos plans depuis votre départ récent de Google?
J’ai réalisé un vieux rêve en déménageant en Australie. Sydney est une ville fantastique avec une communauté géniale de startup.
J’ai démarré ma propre société http://netcomber.com C’est le premier service d’empreinte sur le Web. Après avoir entre votre URL, nous vous montrons, à l’aide de plus de 3000 facteurs, les autres sites développés par le même propriétaire.
Nous sommes actuellement en Beta, mais nous avons déjà crawlés 200 million de sites en utilisant des éléments tels que l’hébergement, les ID de comptes et même le style de code pour déterminer qui possède quoi sur le Web.
La nouvelle version sera en ligne dans quelques semaines.
J’ai aussi démarré mon blog où je vais parler SEO et Web marketing. Vous me trouverez à http://netcomber.com/blog
J’invite tout le monde à venir me poser des questions.
Source : Search Engine Journal
Edit : lire l’article de Sylvain qui commente l’interview.
Merci pour la traduction 😉
Avant la grosse partie du travail d’acquisition de liens se faisait à la main, puis les développeurs sont passés par là et maintenant de gros tools permettent de faire du volume au niveau des liens. Et puis il ne faut pas oublier que chez Google ils ont aussi de très bon développeur, du coup ce n’est qu’une question de temps avant qu’ils développent des tools pour lutter contre les liens générés par les tools black hat…
Au final çà parait logique et çà ce confirme avec les nouveaux algorithmes que sort Google.
Le black hat continuera de marcher à mon avis, mais plus pour les personnes qui développeront leurs tools personnels.
Le service netcomber à l’air tout juste énorme, c’est à tester.
Intéressant !
Surtout de savoir que google pète souvent les réseaux d’un même propriétaire ça fait flipper !
Comment s’en protéger ?
Un whois masqué + pas de CA + pas de GWT + pas de adsense ça suffit ?
concernant netcomber j’ai entendu qu’ils étaient récemment passé de 16 à 200millions de sites… c’est impressionnant !
A voir si ce sera efficace sur le web FR.
Oué ça fait flipper la manière dont il décrit les capacités de GG à nous tracker.
Le point qui m’interpelle c’est la chasse aux liens non « relevant ». Si Google se met vraiment à shooter ceux qui ont des liens de site dont la thématique n’est pas exactement la même, bonjour l’hécatombe! Il faudrait appeler cette MAJ « Épaulard », le tigre des mers.
Toujours intéressant de connaitre se qui se passe au coeur de la bête même si tout est dit à demi mot.
Pour ceux qui s’étonnent de la capacité de Google, il faut garder à l’esprit que ce n’est pas parce qu’il nous arrive rien que Google ne nous voit pas.
Merci pour la traduction de cette article, fort intéressant et puis marre de lire des articles en Anglais!
Concernant les réseaux de blog, je ne suis pas étonné et comme nous le montre si bien Andre Weyher avec son nouvel outil Netcomber; il est extrêmement facile de retrouver des sites liés entre eux (notammenet via le tracking Google Analytics UA ou sa structure…)
Alors à l’avenir, il va falloir être de + en + ingénieux que ce soit pour les white, grey et encore plus pour les black hat ! Mais personnellement, je ne suis pas inquiet, il va seulement y avoir de nouvelles techniques / bests practices qui permettront de détourner les MAJ afin de rendre sa stratégie de liens la plus naturel pour nos amis de chez Google..A+ Xavier
Intéressant même si au final on y apprend pas grand chose. C’est agréable d’entendre un discours autre que celui de Matt cuts. Par contre son outil Netcomber est plutôt sympathique !
23h59 !!!! tu as frisé la sortie de route Laurent 🙂
C’est toujours intéressant d’avoir des réponses de personnes qui ont bossé chez Google. La partie la plus éclairante est sans doute celle sur les réseaux de site ; Google recherche bien l’identité des propriétaires et la prend en compte.
Ce qui me surprend le plus ce sont les référenceurs qui sont toujours surpris de voir que Google contre leurs pratiques trop spamy.
C’est un peu comme les commentaires sur les blogs SEO qui ont un lien vers un site d’une thématique totalement différente, les douches ou les bateaux ! Désolé @Lucien mais tu es passé par là 😉 et encore t’as une demie chance car ton ancre n’est pas optimisée thématique liée.
Google envoie des signaux et nous avons la chance que des anciens employés de chez Google nous livrent leur expérience (même si franchement il n’y a rien d’exceptionnel) mais non vous continuez à griller vos jetons en posant des liens hors thématique/contexte !
Préparez-vous à supprimer et à faire supprimer ces liens qui représentent une part trop importante de vos liens lors d’une ultime mise à jour de filtre ou/et algo.
Le jour où Google appliquera ces filtres sémantiques dans la totalité, nous reviendrons à un web Zéro Point Zéro sans lien.
Pour les réseaux de site cela fait des années que l’on en parle. La plus grosse erreur que je vois ce sont des mauvais réseaux alors que leurs propriétaires sont persuadés du contraire, un réseau doit obéir à des règles drastiques au plus loin dans leurs stratégies de liens.
Merci @Laurent pour cette traduction.
Jeff,
Interview très intéressante mais je me demande jusqu’à quel point peut-on faire confiance aux ex googlers?
Je suis persuadé qu’ils doivent signer des contrats de confidentialité. Donc quid de la véracité de l’info?
L’outil proposé par ce site pour trouver les sites du même propriétaire est particulièrement efficace !
Comme on s’en doutait, le whois est utilisé, tout comme les différents services de google, adsense etc.
Hervé (infiniclick) vient de me prévenir de ton article que je n’avais pas vu alors que je viens de traiter le même sujet ce matin !
Merci pour la traduction.
C’est toujours intéressant de lire qu’il faut faire confiance à son instinct, plutôt que d’appliquer stricto sensu des règles ou des raisonnements qui circulent sur le web…
J’ai testé rapido Netcomber sur quelques uns de mes sites « propres », c’est impressionnant de voir comment il retrouve des sites « liés » via des effets de bord (raccourcisseur d’url perso…) sans se limiter aux choses évidentes (ip,code adsense…).
Ensuite, on extrapole à ce que Google sait faire et ça fait peur: on a bien raison d’être parano, et on se plante en beauté si on croit blouser GG avec un bête whois caché. 😛
Salut Laurent,
Ouah je retrouve enfin ton blog après quelques temps où j’étais un peu pris. Et, quel article! On en apprend pas mal sur les nouveaux filtres, mais le plus surprenant reste tout de même la difficulté évoqué à pouvoir redresser un site après un passage du pingouin, même après des actions correctives.Plus que jamais le linking naturel (issu de la qualité du contenu) semble favoriser le positionnement…
Yvan,
Merci pour la trad Laurent…
Bon, cela trempé dans la méthode de l’Empire :
Je note :
pas bon : Sur-optimisation du maillage interne,
bon : mettre en place une stratégie de maillage interne…
La chose qu’il a bien appris le: monsieur chez GG c’est le double-langage.
Kant disait : Fais ce que tu dois, advienne que pourra 😉
@YvanDupuy
Je trouve qu’il y a une certaine logique à ce qu’un site pénalisé soit dur à redresser.
Pour imager ma pensée, je dirais que ce n’est pas parce qu’on retire les 100 000 liens de « mauvaise qualité » d’un MFA que ça en fait un « bon site »… s’il reste désormais cantonner à la quarantième page quelque part c’est normal.
Si on reprend le site de zéro, là aussi il est logique (je trouve) qu’il n’y ait pas de miracles instantanés, la patience des débuts semble de rigueur. Surtout qu’au niveau trustabilité, j’imagine qu’on ne repart pas de zéro mais de « – » quelque chose…
Là où ils sont vraiment très fort chez Google, c’est surtout en communication.
Bonjour Laurent,
Merci pour la traduction de cette interview très intéressante. J’ai vérifié Netcomber qui me semble très efficace. Un service à creuser…
Hello, merci pour la traduction de cette interview!
Je viens de jeter un oeil au site netcomber, il a l’air bluffant également!
Quelqu’un saurait quand ce Monsieur a-t-il quitté Google ?
Bizarre qu’il ne le dise pas, car cette info me paraît importante.
Il est parti de Google en mai 2012.
Merci pour l’info Laurent et parfait dans ce cas car c’est du « tout frais » 🙂
NetComber est un outil super intéressant qui nous montre bien une chose : il n’est jamais possible de passer complètement sous le radar. Avec ses 3000 signaux analysés, comme les identifiants de systèmes d’affiliation, il devient difficile pour un individu de gérer un véritable réseau caché sans être à chaque fois le plus différent possible, c’est-à-dire en mettant en commun le minimum de choses, et partant perdre sur l’économie d’échelle. Reste comme solution l’achat de sites avec déjà une histoire tout en les laissant continuer à vivre de leur côté. Des sites de pailles en quelque sorte.