Les stigmates des bouleversements causés par certaines mises à jour Google, telles que Florida en 2003 restent gravés dans la mémoire collective du référencement.
L’annonce d’une mise à jour surnommée Caféine (Caffeine en anglais) provoque des remous plus ou moins justifiés, au travers de ceux qui s’intéressent à Google et au référencement de site Internet.
Faut-il que ceux, qui possèdent des sites positionnés convenablement parmi les résultats de recherche Google, redoutent la mise à jour Caféine?
Comme d’habitude, les pseudo analyses, suppositions et autres interprétations fleurissent au travers des blogs et forums à propos de la mise à jour Caféine. C’est comme cela que naissent les mythes du référencement, habilement alimentés par Google causé par un manque de transparence récurent.
Qu’est ce que Google Caféine?
Il était évident que certains allaient sortir des théories alimentant la pompe à mythes et secrets du référencement.
En guise d’avertissement, nous avons reçu une annonce officielle de Google, plusieurs interviews de Matt Cutts, ainsi qu’un post sur son blog se voulant rassurant. Sur le Web, la discussion est bien lancée sur blogs, forums, Twitter, etc.
Une URL mettait à disposition l’accès à un aperçu de l’index Google Caféine. Cet accès est fermé depuis le 10 novembre 2009.
Interview de Matt Cutts à propos de Google Caffeine
Propagation de la rumeur et mise en route d’un mythe
Au départ, Mashable sort une analyse que je qualifie de tout à fait superficielle. Le point subjectif concerne une soi-disant pondération supérieure des mots clés sur Google Caféine.
Un blogueur français orienté référencement reprend la teneur de l’analyse Mashable à son propre compte (sans citer la source d’origine qui l’a inspiré) et d’autres vont citer ce billet sur leurs blogs, Twitter et autres sources de partage de contenu. Même le Journal du Net met les pieds dans le plat sans savoir de quoi il s’agit véritablement.
Le pire de tous est celui là qui part dans un délire total, voulant sciemment propager une peur parmi ses lecteurs.
Ce qu’il faut retenir à propos de Google Caféine
Google Caféine est un nouvel index hébergé par une nouvelle infrastructure qui repose sur le Google File System V. 2., dont la structure nous est connue depuis 2004. La V.2 conçoit une évolution majeure du Google File System, permettant d’améliorer l’indexation et la gestion des données.
Cela entraine principalement:
- Une amélioration de vitesse d’indexation
- Une plus grande fiabilité sur les résultats de recherche
- Des moyens décuplés en interne pour le travail des ingénieurs Google
Les observateurs du référencement ont tellement envie de croire que cette mise à jour va provoquer des remous qu’ils brouillent plus ou moins volontairement la compréhension générale. Malgré les efforts évidents de l’inusable Matt Cutts pour signifier qu’il s’agit d’une évolution d’infrastructure, certains font l’amalgame entre index et algorithme.
Bien entendu, la communication Google n’étant pas limpide, tout le monde peut croire qu’il réside un piège au tournant. Sans doute que l’annonce du recul de déploiement global après les fêtes évoque les remous de Florida au sein de l’imaginaire collectif.
Encore une fois, Google Caféine permet à Google de reposer sur une infrastructure plus performante, avec l’algorithme n’étant pas la principale cible de cette mise à jour. Ainsi, le plus gros changement que nous allons observer concerne l’index qui sera rafraîchi.
Et l’algorithme dans tout ça ?
Le principe de fonctionnement de Google est un algorithme par couches. Il existe une formule de base sur laquelle sont posés des filtres qui concernent des paramètres en particulier et/ou certaines parties de l’index.
Comme expliqué précédemment, Google Caféine ne focalise pas sur l’algorithme. Un peu comme si vous changiez de voiture pour passer d’une Twingo à une Porsche, mais vous n’êtes pas devenu Sébastien Loeb par l’intermédiaire de ce changement du véhicule.
Bien sûr, l’index et l’algorithme sont liés, donc j’imagine qu’il faut accorder le bouzin pour qu’il dépote à merveille. Par ailleurs, il est facile de comprendre que ce n’est pas non plus le meilleur moment pour coller des filtres à foison qui pourraient mettre à mal cette merveilleuse nouvelle machinerie.
Les effets et conséquences de Google Caféine
Ma plus grande attente concerne l’indexation en temps réel. Jusque à maintenant, Google Search est à la ramasse et Google Images est un désastre. Espérons que cette nouvelle infrastructure va permettre à Google de pouvoir tacler l’indexation en temps réel convenablement.
Les éventuelles perturbations observées ressortent l’excuse passe partout qui sont les effets de bord. Quand on bidouille un index de cette taille, il est évident que certains effets inattendus apparaissent pour des cas isolés. Bien évidemment, ceux qui verront leurs sites tomber vont faire un ramdam pas possible, mais ils représenteront une portion microscopique du total de l’index.
Si l’algorithme était concerné par cette mise à jour, cela amplifierait les effets de bords. Essayez de changer une virgule dans une formule mathématique pour voir un peu les conséquences…
Une autre évidence du rafraichissement de l’index concerne l’affichage du nombre de résultats qui était notoirement farfelu. J’ose espérer qu’on pourra désormais se fier avec plus d’exactitude aux chiffres énoncés dans les résultats de recherche.
La lutte contre le spam reste au coeur des besoins de Google. Une meilleure manipulation des données contenues dans l’index pourrait aider dans cette lutte pour totalement vaine (pour l’instant).
Le paramètre dont parlent ceux qui ont compris de quoi il s’agit porte sur la vitesse de chargement des sites, dont les plus lents pourraient être défavorisés. Ce nouvel index focalise sur la vitesse, donc il semble viable de demander aux pages affichées parmi les meilleurs résultats de suivre cette tendance. Matt Cutts mis le doigt sur ce point dans une interview récente, ainsi que SearchEngineLand qui abonde dans ce sens. Attention, il ne faut pas faire partir une nouvelle rumeur suggérant qu’un site qui se charge en plus de 4 secondes va perdre 30 positions. Ce paramètre est à inclure parmi les +200 qui composent l’algorithme, nécessitant de jauger son importante relative par rapport aux autres.
A propos de la vitesse de chargement des pages Web, je reste perplexe car j’ai testé la rapidité de mon site et le facteur le plus ralentissant est … Google Analytics – par le biais du code JavaScript installé en bas de chaque page.
Comment faire une analyse convenable ?
Le reverse engineering à la petite semaine est une perte de temps. Tout d’abord, il faut bien comprendre que l’affichage des résultats de recherche n’est pas forcément une retranscription exacte de ce qui se trame dans l’index. Sans parler des chiffres farfelus affichés comme compteur des résultats, Il existe toute une série d’opérations depuis le moment où GoogleBot crawle une page Web jusqu’au moment où elle ressort sous divers opérateurs au sein des résultats de recherche. Nous disposons uniquement de la plus petite lucarne qui sont les résultats de recherche du moteur. Toute la machinerie en amont est invisible et inconnue.
Tirer des conclusions à partir d’un résultat de recherche pour déterminer ce qui se passe en amont est voué à présenter une pitoyable interprétation du fonctionnement de Google.
Parmi les mythes du référencement, il demeure un paramètre que j’ai toujours combattu avec force. Il s’agit de la densité des mots clés au sein d’une page. Il suffit de savoir dans les grandes lignes comment Google fonctionne pour se rendre compte que ce critères est totalement farfelu.
Pour analyser le comportement du moteur par rapport aux mots clés, il faudrait évaluer le nombre d’occurrences sur la page. Jusque là c’est facile ; il suffit de compter les mots cibles sans prendre en compte le nombre total de mots clés comme le fait le calcul de densité. Ensuite, il faut évaluer ces occurrences par rapport aux occurrences exactes sur le reste du site, puis par rapport aux co-occurrences similaires et complémentaires.
Ce n’est pas fini ! Maintenant, il faut prendre chaque partie de ces résultats pour les évaluer en fonction des pages Web concurrentes et le reste du site des pages concurrentes qui sont elles même analysées comme précédemment.
Ensuite, il faut remonter ces données pour tenter d’en sortir une règle de pondération qui sera toujours à prendre avec précaution car je rappelle que l’index n’est pas traité de manière identique sur sa totalité.
Et là on dispose d’un petit début de piste concernant la prise en compte des mots clés. Tout cela doit évidemment se répéter sur un nombre suffisant de mots clés pour une seule page, plusieurs pages du même site, plusieurs sites sur la même requête, un seul site sur plusieurs requêtes, plusieurs sites sur plusieurs requêtes, etc.
Ainsi, je peux sereinement réfuter les résultats de Mashable, ainsi que tous les autres qui se sont inspirés de cette analyse bidon.
Si je comprends bien, je n’ai rien à craindre pour mon site ?
Pour la vaste majorité des sites Internet, il n’y aura pas ou très peu de changement. Ceux qui seront touchés seront sûrement affectés par un effet temporaire qui sera dégagé sans rien modifier sur le site. Malheureusement, c’est frustrant et je connais personnellement le phénomène.
Dans tous les cas, il ne faudra pas regarder du côté d’une éventuelle pénalité algorithmique, mais plutôt par rapport aux paramètres liés à l’indexation.
On verra bien en janvier lorsque Google Caféine sera déployé sur tous les DataCenters du moteur de recherche, mais je peux logiquement m’avancer en rejetant en bloc tous ceux qui font l’amalgame entre index et algorithme.
Pour ma part, j’avoue avoir eu quelques frayeurs pour certains sites lorsque Google nous a donné un accès au serveur « de test » il y a quelques mois.
Mon expérience m’ayant surtout appris à ne toucher à rien dans ce genre de cas, j’ai laissé faire.
Au fil des mois, j’ai pu constater une reprise des positions, et finalement, pas de gros changements avec la version « précédente ».
Très sincèrement, je suis dans l’expectative et j’attends avec impatience un déploiement généralisé de Caféine.
Si j’en crois ce que me semble être les préoccupations de Google, Cafféine devrait essentiellement favoriser l’indexation des contenus en quasi temps réel, et tenter de combattre le spam de manière plus efficace.
Qui vivra verra…
Content de pouvoir lire un article complet qui remet tout le monde à sa place, puisque effectivement même le grand gourou de Google se veut rassurant quand aux conséquences de l’utilisation de caffeine.
Mouahahaha, j’adore comme tu tacles certains blogueurs ^^
Je partage pleinement ton analyse et je rejoins Sylvain (Axe), j’attends de voir sans rien toucher.
Ce qui m’amuse c’est de voir comme Google a réussi à modifier/amplifier les mentalités, avec sa méthode de communication. Toujours plein de spéculations foireuses et de conclusions hatives au lieu d’attendre de voir et d’analyser par soi meme. Préfèrent absorber ce qu’il nous envoit sans même réfléchir 2min…
Je crois n’avoir jamais eu la curiosité d’aller voir ce que donnait l’index Caféine, je dois être blasée ou je ne sais pas… Et même si j’avais observé de sérieux bouleversements sur mes sites, je ne suis pas sure que j’aurai changé ma ligne de conduite.
Par contre si Google peut faire des progrès sur la fraicheur des résultats et le temps réel ça ne sera pas plus mal.
Allez on verra en janvier 😉
J’adore le ton que tu emplois en ce moment Laurent 😉
Sinon, bah, j’avoue que caféine me fait un peu le même effet que Marie… J’attends de voir, on avisera ensuite, de toute manière tout ce qui peut être dit sur ce changement n’est que pure spéculation et ce n’est jamais bon dans notre métier.
Mashable est une excellente ressource pour tous les passionnés d’Internet.
On pardonnera un faux pas au milieu de la multitude d’articles de qualité.
Google Caféine semble faire plus peur que de raison à la lecture de cet article. Les référenceurs seraient-ils superstitieux ?
Perso, après avoir comparé la majorité de mes sites entre la version sandbox et l’ancienne version de l’index, j’avoue avoir vu quelques mouvement minimes (+ ou – 1 à 2 places).
Visiblement, Caffeine ne semble pas se limiter au search, et c’est plus cela qui me paraît étonnant…
Finalement, la théorie du « PersonRank » n’est-elle pas en train de se profiler ?
Bonne remise en place de de qu on voit entends ou lit en ce moment sur caféine.
Je n ai pas fait de test non plus, mais je pense que ce sera une bonne chose si l indexation (en terme de qualité) est améliorée.
De toute façon il ne nous reste plus qu a attendre et se délecter des nombreux posts qui ne manqueront pas de fleurir d ici là.
Tiens tu avais une petite envie de me casser ? 😉 Pas aimé ma répartie sur Facebook on dirait, rancunier le Laurent…
@AxeNet : il me semble que la Sandbox de Caféine interrogeait sur le .com au début ?
@julie : c’était le but principal du billet. Ravi d’apprendre que le message soit passé.
@Morgan : sans même parler d’absorber, c’est de l’extrapolation à gogo qui fuse sur le Web
@Marie: même pour Google, ça m’étonnerait que tu changes ta ligne de conduite en place depuis tant d’années.
@Djolhan : hmmm va tout de même falloir que j’arrête un peu de taper à droit et à gauche.
@Jake : je lis Mashable régulièrement, mais peu importe qui dit des conneries; ça envoie les gens sur des fausses pistes et alimente cette foutue rumeur qui est atrocement contre-productive
@Mathieu : étant donné que la nouvelle infrastructure permet une meilleure manipulation des données, on peut tout à fait suspecter que la gestion des profils d’utilisateurs sera encore plus efficace qu’aujourd’hui.
@sejour scolaire : il serait dangereux d’anticiper ce que nous réserve Caféine à partir de la version Sandbox proposée temporairement par Google. Tu as raison de n’avoir pas bougé
@Nat : pas vu ton commentaire, mais je n’ai pas été trop méchant ici. Comme j’indiquais sur un autre post, mes potes ne me loupent pas quand je comment un faux pas.
Qui aime bien châtie bien 😉
Hé non je ne changerai pas ma ligne de conduite qui est si bien rodée depuis des années! Tant que ça fonctionne, on continue comme ça 😉 Comme tu dis dans un autre billet, il faut respecter les fondamentaux et ça roule, mais je ne t’apprends rien.
Mais surtout il ne faut pas paniquer à la moindre annonce et voir ce que ça va donner par soi-même. A chaque jour suffit sa peine!
Ping : Bloguer ou ne pas bloguer » Et j’ai crié
Sur Caffeine je ne pressens pas non plus un boulversement des resultats. Mais deux pistes :
– l’indexation plus rapide (temps réel ? ), donc les résultats vont bouger car ces nouveaux contenus vont se positionner
– l’indexation de plus de contenu, on parle des réseaux sociaux avec analyse du sentiment. J’ai hâte de voir si cela sera réellement le cas et la je pense que les résultats vont bouger significativement mais cela prendra du temps
J’ai eu un gros coup de panique au moment où le test « caféine » a stoppé et contrairement à vous, j’ai bougé.(La peur du novice certainement)
Je trouvais en effet anormal de perdre des positions sur des mots clefs où aucun de mes concurrents ne bougent et où je suis un des rares à me positionner.
J’ai donc relancer des campagnes de BL.Certes, ces campagnes ne peuvent avoir des répercussions sur du court terme, mais je récupère mes positions initiales petit à petit.
Ayant eu l’occasion de discuter avec d’autres webmasters, ils ont aussi constater une chute brutale dans leur electro-cardiogramme SEO.
Pour moi, Matt Cutts annonce des choses mais elles doivent en cacher d’autres. L’avenir nous le dira.
Comme Marie, je ne changerai pas ma ligne de conduite qui est si bien rodée depuis des années! Tant que ça fonctionne, je continue comme ça !
Pour conforter ce que dit Marie et Laurent au départ, la meilleure solution est de respecter les fondamentaux, je pense que ce qui va le plus souffrir ce sont les techniques borderline.
Pour ma part, il serait dangereux et inopportun d’essayer d anticiper caféine, car je suis sur qu’il y aura de belles surprises et encore des non-dits
Salut à tous,
Je tenais à vous apporter mon témoignage… Je ne suis pas un novice en matière de référencement, et n’ai pas triché ou spammé un moteur depuis la grande époque où il était si simple de dissimuler du contenu… Pour ce coup
cette mise à jour à été un vrai coupe raie pour 1 de mes sites… Un blog qui tourne depuis plus d’un 1 an sous wordpress et un guide d’achat mis en place fin septembre… (le tout sans sur-optimisation…) Tout se passe bien jusqu’au 3 novembre matin, jour où mon site divise par 10 son nombre de visites. Les pages sont toujours là, site:www…., mais plus aucune n’est positionnée en première, 2ème, 3ème… pages des résultats de recherche ! J’avais jusque là d’excellents résultats en terme de progression dans les positionnements…. près de 7000 pages indexées fin octobre (GWT) et plus de 30000 avec la requête site:www…
Hormis une inscription sur une trentaine d’annuaires spécifiques à mon univers, aucun changement et aucune action particulière n’a été menée.
Aujourd’hui, plus auncun trafic provenant de Google même sur mes pages du blog ou de nombreux articles était très bien placées sur certaines requêtes… La demande de réexamen ma valu une réponse des plus standard, et rien n’a changé. Les GWT m’indiquent maintenant 800 pages indexées sur 20000 proposées dans le Sitemap… Ferais-je partie des malheureux élus d’un « bug » Caféine, ou d’une pénalité type sandbox ? Que puis-je espérer ou faire ? En tout cas, je trouve cela fort de café !
Malheureusement il peut et il y aura certainement des imprévus lors du passage au nouvel index.
C’est comme ca on y peut rien… le big boss ce n’est pas nous ! ^^ On ne peut que faire avec…
Je pense donc aussi que ca ne sert à rien de paniquer, qui vivra, verra… :p
@Renaud Joly : tu as raison de citer ces nouveaux éléments qui vont forcément prendre des positions dans les SERPS. Je suis impatient de voir comment Twitter va être intégré.
@Meilleur Fournisseur : tu as bougé sur la Sandbox Caféine ou sur Legacy, l’index actuel ?
@Dan : pas mieux!
@sejour scolaire : le seul paramètre sur lequel tu peux anticiper concerne la rapidité du site/vitesse de chargement
@Nicolo : même question qu’à Meilleur Fournisseur, mais j’ai bien l’impression que tu parles de Google Legacy. Du coup, c’est impossible que Caféine soit coupable car ce n’est pas encore déployé. Tu peux me faire passer ton URL si tu veux (en public ou en privé) pour que je regarde.
@Patrenet : le problème avec les imprévus est que certains peuvent plus se le permettre que d’autres. Si tes revenus dépendent d’un seul site qui dégringole, c’est la débandade.
@Laurent: C’est vrai, mais c’est un peu comme en gestion d’entreprise… si tu parie tout sur un seul gros client, tu prends le risque de tout perdre un jour… (ca existe ^^)
@Laurent : Salut, dès que Cafeine a été stoppé, j’ai constaté une grosse perte de ranking sur Legacy alors que je n’avais rien fait de spécial. Cette perte de ranking a duré 3-4 jours et j’ai trouvé ça un peu bizarre surtout que j’avais d’autres petits camarades qui avaient eu la même mésaventure.
Pour le moment, tout est revenu à la normal en mieux, je ne vais pas me plaindre.J’ai sans doute fait trop vite l’amalgame avec la fin du test.
JP.
La caféïne, forcément ça énerve !
Cet article est peut-être à l’origine de votre nouveau billet sur les méthodes et moyens pour influencer les internautes : jouer avec la peur en fait grandement partie… C’est le cas aussi pour certains hommes politiques qui sont arrivés au plus haut par ce moyen.
Tout est rentré dans l’ordre pour moi ce matin (mon commentaire du 18 novembre…). Allez, je passe au déca
Salut laurent:)
A mon avis pas de grand changement donc pas de crainte particulière pour le moement
Il paraîtrait qu’on puisse toujours accéder à Google Caféine via ce DataCenter (source WMW):
216.239.59.103
L’ip donnée est: http://209.85.225.103/ , mais ne fonctionne que sur 50% des requêtes.
Autant dire qu’on ne sera ça que dans les jours qui viennent.
Cafféine… je ne sais pas… mais lisant avec le recul un point me semble vérifié : google favorise les sites dont les contenus varient souvent… et il faut même faire varier pour être souvent en première page !
Un écrivain
Ping : Vitesse de chargement des pages Web et impact sur le référencement
un soucis si le site est lent en accueil pour son référencement ? cela fait un peu peur quand même.
Beaucoup de bruit pour rien au final, ce n’est pas la première ni la dernière fois que Google fait des changements qui « effraient » les internautes alors qu’au final un site de qualité au contenu mis à jour finira toujours pas faire parler de lui.
Perso, je pense que cela ne va pas changer les bonnes règles du référencement, du bon texte à ajouter régulièrement et des bons backlinks et le résultat sera au rendez-vous.
L’algorithme et la méthode d’indexation à changer, pour ma part l’indexation, la puissance et la vitesse de Google Caféine fera de lui le plus rapide du moteur en termes d’indexation, en temps réel
Cafféine… je ne sais pas… mais lisant avec le recul un point me semble vérifié : google favorise les sites dont les contenus varient souvent… et il faut même faire varier pour être souvent en première page !
Un écrivain
Bonne remise en place de de qu on voit entends ou lit en ce moment sur caféine.
Je n ai pas fait de test non plus, mais je pense que ce sera une bonne chose si l indexation (en terme de qualité) est améliorée.
Je crois qu’on doit se garder de batir toutes sortes de théories de la conspiration. Le mieux et de voir précisement de quoi il s’agit exactement et tirer les conclusions après…