Un lien que j’ai fait passer sur Twitter a interpellé de nombreuses personnes. Il s’agit d’un éventail des tarifs pratiqués pour la rédaction de contenu en France.
Au-delà de la valeur du contenu, quels sont les enjeux actuels de la fameuse qualité revendiquée par le Panda de Google ?
Contenu en or ou en foin
Aujourd’hui, un feuillet peut coûter de 5 à 500€, donc difficile de se raccrocher à un cadre strict. Les tarifs de rédaction Web 2012 que j’ai partagé est sans appel sur la réalité des prix qui sont derrière un contenu prétendu de qualité.
Pourtant, c’est parfaitement logique qu’un texte de taille identique puisse coûter d’une poignée à quelques centaines d’euros.
Je ne vais pas m’étendre sur l’expérience, le temps passé et les frais d’un rédacteur professionnel en France qui va conduire des recherches pour rédiger un feuillet qui ait le standard pour figurer dans une publication réputée. De nos jours, je vois même passer des services où un certain niveau de promotion est assigné à ce contenu, donc 500€ pour 250 mots ne m’étonne pas du tout. Ou alors un rédacteur qualifié pourrait bosser pour moins de 50€/heure en France et nous serions devant un réel problème. En dehors des frontières hexagonales, c’est la jungle aux bas salaires qui permettent de tarifer 10 à 100 fois moins cher.
Maintenant, vous connaissez tous les filons pour trouver des textes à moins de 10€. Après tout, peu importe puisque ce n’est pas en contenu dupliqué et c’est parfaitement lisible. Cela serait vraiment idiot de dépenser 500€ quand je peux m’en tirer avec 5. Google veut du contenu, alors publions beaucoup pour pas cher !
En passant, ce même calibre de rédacteurs qui étaient payés 5$ + 25% des clics dans les fermes de contenu n’ont pas chômé longtemps puisque c’est la même espèce qui travaille dans les coulisses d’une plate-forme d’achat de contenu au rabais.
J’avais déjà exprimé ce sentiment dans mon billet « l’invasion des fermes de contenu » où j’explique que le Google Text (contenu destiné purement aux moteurs de recherche) a maintenant accentué sa propagation dans le Web de l’ère post-Panda. Parmi les meilleurs exemples, voir les sites e-commerce qui transforment leurs fiches produits en pseudo-Wikipedia rassis.
Google et la qualité
Juger de la qualité d’un contenu, au-delà de son taux de duplicate, ainsi qu’un respect minimum des règles de grammaire et d’orthographe, demeure l’enjeu.
Partant du principe qu’un moteur est idiot puisqu’il ne comprend pas ce qu’il lit, je veux bien que l’arrivée de Google Panda prétende juger de cette qualité, mais dans la réalité c’est toujours la même soupe qui est servie à tort et à travers. Les sanctions de Google n’ont pas vu surgir des sites remarquables à la place des comparateurs, agrégateurs et autres tombés au combat. D’autres ont pris les positions laissées vacantes, mais rien de notable n’a changé.
D’ailleurs, si Google devait être vraiment sévère au sujet de la qualité, resterait il grand chose au sein de ses résultats de recherche ?
Lors de mon dernier podcast, j’ai partagé mon sentiment troublé à propos de ce filtre nouvelle génération. Après avoir traité plusieurs cas de sites griffés par Google l’été dernier, je vois bien des faiblesses latentes, mais ce n’est pas non plus outrageant.
Mon problème se pose plutôt par rapport aux conseils prodigués par Google afin de rentrer dans les clous. Pour être clair, je ne vois toujours pas comment ce moteur pourrait faire autrement que se baser majoritairement sur des évaluations humaines afin de dresser les listes de sites flaggés. Je ne dis pas non plus que l’algo a laissé la place à l’humain, mais l’arrivée du Machine Learning ne me contente pas comme excuse pour transformer tout d’un coup Google en moteur capable de comprendre.
Je suis encore plus étonné quand Google annonce fièrement que les validations algorithmiques sont en parfaite corrélation avec les évaluations des Quality Raters.
Non seulement Google aurait intégré le Machine Learning, mais en plus c’est devenu plus pertinent que toutes les expériences scientiques dans le domaine.
Étrange tout de même lorsqu’on sait comment le moteur est finalement bricolé depuis 1996.
Parmi les hypothèses, certaines vont jusqu’à suggérer que les listes de sites compilées, majoritairement manuellement, débouchent sur les fameuses mises à jour du filtre qui seraient finalement de simples lâchers de ces listes. Cela n’empêche pas de prétendre quelques réglages techniques, mais les wagons de sites dézingués ne seraient pas forcément affligés de manière algorithmique. Le souci est que la position de Google est très claire afin de favoriser la solution algorithmique ; malgré cela ce n’est pas très difficile d’imaginer que l’intrusion manuelle au niveau des pénalités soit plus aisée à gérer. En tout cas, cela serait une grosse farce si finalement ce filtre ne serait qu’un aveu final de faiblesse devant la médiocrité du contenu sur le Web.
Sortir des griffes du Panda
Fondamentalement, ce qui me dérange le plus à propos de cette pénalité concerne les efforts pour en sortir. Depuis la fin de l’été dernier, j’ai opéré sur plusieurs sites afin de les sortir du marasme.
Au final, les sites qui sont repartis au firmament des tops positions ont effectivement reçu un nettoyage en profondeur et une amélioration de l’architecture. L’omniprésence de la publicité est également mise en retrait, ainsi que les éléments de performance passés en revue et même l’usabilité qui est mise en avant.
Par contre, la soi-disant qualité du contenu n’est pas révolutionnaire. Dans ce sens, on ne passe pas d’un comparateur ou agrégateur à un portail scientifique ou même un média citoyen. Cela reste du contenu basique qui ne casse pas trois pattes à un canard. Cependant, le signal envoyé suffit habituellement pour rétablir la situation. Le plus étrange est qu’en opérant les mêmes actions sur différents sites, la réaction n’est pas identique au niveau du moteur.
Un autre symptôme qui me tracasse se rapporte à la manière dont un site se retrouve affligé par le filtre. Notamment sur des sites imposants avec des strates différentes de contenu, l’ensemble est touché de manière assez anarchique. C’est quasiment impossible de trouver une logique dans ce qui est touché et ce qui ne l’est pas.
Regardez de plus près les éléments plausibles de red flags Panda. C’est assez flagrant d’observer qu’il s’agit principalement de facteurs qui n’ont rien à voir avec la qualité intrinsèque d’un contenu.
D’un côté, Panda pourrait être un réel tour de force (sorti soudainement de nulle part quand même) de la part des techos Google ; d’autre part cela pourrait aussi être la plus grosse arnaque à laquelle nous sommes confrontés depuis l’apparition des moteurs de recherche.
Vos avis m’intéressent car je n’ai pas réellement formalisé ma pensée à propos de Panda. Surtout, il n’y a pas de méthode éprouvée pour sortir de la pénalité et c’est la première fois qu’on se retrouve aussi démuni. Cela m’agace de manquer d’éléments pour cerner ce défi; c’est même la première fois que cela arrive.
Hello,
Panda est une farce, je n’ai presque pas vu de changement après sa mise en place… Et je viens en plus de constater qu’un site ayant dupliqué tout mon contenu (4 mois après quand même) est passé devant moi sans souci, au nez et à la barbe de Google.
Comment veux-tu que les robots de Google jugent si un contenu est de qualité ? S’il est juste et actualisé, s’il respecte la loi du pays, s’il ne raconte pas de grosses bêtises ?
Impossible, sauf à avoir des évaluateurs manuels, spécialistes du sujet…
L’évaluation par la qualité des liens entrants était une idée de génie, mais Google se retrouve très mal depuis que le nombre de liens sortants a considérablement baissé. Dans certains domaines, on ne trouve presque plus de sélections de liens qualitatives, de sites en conseillant d’autres, etc…
Tout est principalement partagé sur fb et twitter et Google se retrouve aveugle, obligé de créer un Google+ imparfait et de mettre en place un filtre panda encore plus imparfait.
Dans le mesure où la notion de qualité est déjà très subjective (et culturelle et selon un curseur personnel) pour l’être humain, je ne pense pas que de tels hommes puissent être capables de mettre au point un algorithme capable de décréter ce qui est quali et ce qui ne l’est pas (même en logique flou).
On ne fait pas de philosophie avec un algo.
Ce serait d’ailleurs grave que Google se fasse le juge absolu de ce qui est de la qualité et ce qui ne l’est pas car la qualité n’a pas de valeur absolue et n’est pas toujours nécessaire (pourquoi demander à une boutique en ligne de faire du Victor Hugo ? Quel intérêt pour l’acheteur potentiel ?)
Par contre, l’aspect DC de Panda est plus maîtrisé et semble être en action… mais pas toujours, par exemple, sur la requête « Immobilier Nice », toute la première page est en DC (d’après Copyscape en décembre dernier). Que fait GG ?
Il y a les signaux structurels pour lesquels des choses soient faisables, mais même là, je suis perplexe sur une détection à 100%…
Panda oui pour le DC, assez souvent, mais pas toujours.
Non pour le jugement de qualité.
Pour savoir où en est GG de sa compréhension d’un texte en français, il suffit de lui demander de le traduire en anglais… la trad est suffisamment bidonnante pour dire qu’il ne comprend rien du tout.
Mais de toutes façons faire de la rédaction de qualité, selon des critères communs vus avec le client, n’est pas non plus une tare 😉
Le contenu de la page de la première réponse sur la requète « pertinence vue par google » illustre ton article avec humour.
Panda a un fonctionnement différent de ce à quoi nous étions habitués. Son application est ponctuelle, il s’affine au fil des tatonements de Google. C’est sans doute ce qui le rend déroutant car il est particulièrement difficile de suivre une logique qui change à chaque couche supplémentaire.
Tu me connais, je suis le meilleur apôtre du contenu qualitatif et du coup je pourrais me dire que grâce à mes conseils, mes clients ont globalement eu la chance de ne pas être touchés. Mais dans la pratique, comme tout SEO qui se respecte (pas de ceux qui tentent de ranker avec un robots.txt :-). ) j’ai quelques MFA bien pourris mais très anciens. Et bien ceux-ci n’ont rien perdus de leurs positions non plus.
De ce que j’ai pu constater, je suis aussi sec que toi concernant certains déclassements. J’ai vu des pages au bon contenu riche et unique perdre quelques positions, mais vite reprises avec une giclée de BL. Aucun changement de qualité donc pour remonter, mais la bonne vieille recette du linking.
A part des pages quasiment vides, je vois aussi des pages au contenu très pauvre très bien se maintenir.
Mon retour d’experience ne t’apportera donc rien car comme toi je trouve les sanctions très aléatoires. A part quelques banalités, je n’arrive pas à tirer de conclusion, si ce n’est que le temps ou les machines sauront tirer le bon grain de l’ivraie n’est pas encore arrivé. En tout cas, pas chez Google qui a pourtant de sacrés moyens.
Le point le plus sensible que j’ai cru entrapercevoir est aussi lié à des modifications d’arborescence. Mais j’avoue que le très faible nombre de cas ne m’a pas permis de me dire que ce n’était pas un hasard ou un effet collatéral.
Le seul truc qui a changé, c’est qu’on est obligé de dépenser des sous dans du contenu (même de basse qualité) pour faire ranker des pages… Car Google n’est pas capable de dire si le contenu est bon ou pas. Il peut juste déceler le duplicate,… Google Panda favorise en quelques sortes les entreprises qui ont des sous pour faire du contenu.
J’ai toujours été très sceptique sur la mise à jour Google Panda.
Bien sûr, je n’ai pas la gestion de gros sites, mais mes quelques MFA de piètre qualité semblent très bien s’en sortir.
J’ai d’abord interprété Panda comme solution pour pousser en touche la concurrence de GoogleShopping, puis je me suis demandé si Google n’avait pas des actions chez textbroker, et enfin j’ai vu que Google aimait toujours autant qu’on lui vomisse du contenu.
Bref, pour moi, mais sans aucune preuve: un Google Panda qui ne semble pas au point, d’où la difficulté de trouver une cohérence entre les différentes pénalités.
Je suis comme Sylvain un partisan de contenu propre et de qualité y compris sur mes MFTs.
Mais je me me place en mode parano, qu’on suit vos raisonnement et surtout les constations que l’on fait tous au fil des MAJ de Panda. Ce filtre ne serait-il pas une vaste supercherie pour légitimer un évincement des sites qui font de l’ombre au CA de Google. Et tout ça sous caution de la qualité?
Autant pour certains sites touchés j’avoue c’est pas un mal, mais quand je vois la griffe s’abattre sur certains sites ou pire ne pas s’abattre sur d’autres j’ai de gros doutes quand même.
Mode parano off Google est grand, Google est beau, Google est fort et surtout ils vous emmerde!!!
« Juger de la qualité d’un contenu, au-delà de son taux de duplicate, ainsi qu’un respect minimum des règles de grammaire et d’orthographe, demeure l’enjeu. »
Tout est dit.
Comment une machine peut juger de l’intélligence ou de la pertinence d’un texte ?
Une machine qui pense, analyse et juge ?
Cela n’existe pas encore.
Tu es certainement démuni face à Panda car tu n’as pas suivi la formation d’Olivier Duffez. Je te recommande le cycle de formation avancé et ses modules A,B,C et D.
Merci une fois de plus pour tes billets pleins de franchise, de pragmatisme et de bon sens.
Complément sur mon commentaire précédent, le premier point était entre « balises LOL » , mais celles-ci n’ont pas passé la validation du formulaire. Pour la formation donc, bien comprendre qu’il s’agit d’une bonne blague (-:
@Argonaute : les raisons qui ont poussé Google a lancer Panda sont plutôt politiques puisqu’il s’agit de contrer les Ayatollah du contenu qui s’offusquaient de l’entrée en bourse d’un éditeur de fermes de contenu (Demande Media).
@Christian : je crois qu’il se fait déjà juge absolu…
@Axenet : je l’ai soufflé dans mon billet, mais la refonte de l’architecture est un des premiers chantiers que j’indique. Le but est de renforcer le système de silos ou segments.
Cependant, cela n’a franchement rien à voir avec cette foutue qualité !
@KubX : dépenser des sous ? Tout est relatif comme indiquent les tarifs de rédaction. J’en connais des tonnes qui achètent du contenu pour moins de 10€/page, mais aucun qui dépense 10x plus.
@Loic : il me reste seulement quelques invendus de ma période MFA, donc je ne peux pas juger. Enfin bon, tes propos confirment quand même ce qu’on me raconte et ce que j’observe.
@Raph : à la limite, je préfère qu’il nous fasse un gros Fuck au lieu de la jouer hypocrite.
@Pierre : je ne suis pas scientifique (malgré un père ingénieur et une mère docteur es science), mais j’ai toujours essayé de comprendre les théorèmes et autres expériences concernant la recherche d’information et la linguistique. Des expériences isolées n’arrivent pas à la cheville de ce que prétend Panda.
@Nicolas : tu es mal tombé si tu veux cracher sur Olivier Duffez puisque c’est quelqu’un que j’apprécie. Va plutôt troller ailleurs.
Perso, Panda me fait bien rire ! Dans tous les secteurs où j’essai de positionner des sites, je n’ai strictement vu aucun changement ! Il suffit pour s’en convaincre de tapper « ernt » pour voir apparaître en 2ème position un site bidon,crée en Décembre 2011, composé de 4 pages, avec le template basique WordPress et chaque page contenu du texte à la qualité certes « sémantique bonne » mais très limitée qualitativement parlant.
Et des exemple comme çà, j’en ai à la pelle ! Après, au delà de l’aspect qualitatif, je préfère parler de « conversion », de captation de trafic qualifié, de fidélité et d’ergonomie. Un site tel que celui que j’ai présenté doit certainement avoir un taux de rebond supérieur à 80% et un nombre infinimal de visiteurs récurrents.
Au final, si on peut encore manipuler le positionnement d’un site, on ne peux pas tricher sur sa qualité !Un critère qui a encore de beaux jours devant lui !
@Laurent Rien de méchant contre Duffez. Je souligne juste avec un petit sourire en coin que pas mal de monde peiner à cerner les tenants et les aboutissants de Panda.
Les solutions miracles contre Panda (formations et compagnie) fleurissent sur le web, mais dans des faits, les sites impactés (genre Twenga) licencient et en sont à intenter des procédures contre Google pour remonter dans les résultats de recherche.
Hello,
De mon côté, je pense qu’ils ont quand même la réaction de l’utilisateur face au contenu (taux de rebond) et le nombre de clics dans les résultats de recherche. Certes, ce n’est pas un algorithme qui fait le travail, mais une simple mesure statistique du comportement des visiteurs.
Un humain sait quand il est face à un contenu de mauvaise qualité ou un site avec une ergonomie mal pensée. Les MFA en font parti, c’est pourquoi hormis sur des résultats de recherche de niche ou il est encore possible de tromper Google, je pense que sur des requêtes concurrentielles c’est de moins en moins le cas.
Enfin, les médias sociaux devraient permettre de faire le tri plus facilement car même si beaucoup les manipulent la masse de contenu qui y est injectée chaque jour reste un bon moyen de juger de la qualité des contenus qui y sont partagés.
Bref, je suis plus réservé sur le prétendu échec de Google, au moins pour les recherches courantes.
J’ai le sentiment que Google Panda a surtout eu son efficacité vis-à-vis du duplicate content. En ce qui concerne le fait de savoir jauger la qualité du contenu, je n’y crois guère, sauf quand les Quality Raters interviennent bien évidemment. En effet, la plupart d’entre nous doute de la capacité d’un moteur à savoir reconnaitre ce qui est bien écrit ou mal et aucune preuve (à ma connaissance) n’ a été apportée pour démontrer la compétence du robot de Google a juger de la bonne ou mauvaise qualité d’un contenu textuel. Je pense qu’il y a une grande part d’intox dans le phénomène Panda, mais cela a tout de même créé un certain climat et désormais les protagonistes du web sont devenus plus vigilant sur les contenus qu’ils produisaient. En ce sens Google a contribué un temps soi peu à améliorer certains sites, n’était-ce pas son but ?
Bonjour Laurent.
En te lisant, j’ai l’impression de ne rien connaître de ce fameux Google mais, au moins, j’ai découvert une expression : « ne casse pas trois pattes à un canard ».
Sinon – sourire en coin, je suis aussi intéressé par les commentaires. Je vais continuer à te suivre de près, enfin pas trop quand même.
Salut à tous,
Encore un post très intéressent qui même si je début dans le référencement confirme mon impression. Google ne pourra jamais comprendre ce qu’il lie avec des robots.
Après pour atteindre un niveau « correct » en référencement le plus vite possible je lit beaucoup de blog. Du bon et du moins bon je m’en rencontre chaque mois qui passe.
Quand tu nous dit ne pas savoir comment sortir un site d’une pénalité. J’ai retrouvé plusieurs fois le fait que si un site de qualité d’un page rank d’au moins 3 faisait un lien vers le site pénalisé cela le dépénalisé d’office (par d’office j’entend que le site à bien entendu été cleané…)
Es une abération ou es que cela semble plausible vue que la qualité du contenu compte mais aussi la qualité des backlinks. Après es qu’il faut que le site en pr3 soit du même secteur d’activité la rumeur ne le dit pas mais le contexte étant important cela ne me semblerais pas idiot…
J’ai mis longtemps à osé faire mon premier poste ne me trouvant pas qualifié. J’espère que je ne serais pas complètement à la ramasse 😉
Bonjour,
Bravo pour la qualité de tes articles.
Je trouve ta réflexion très pertinente sur l’amélioration peu (ou pas) visible de la qualité des résultats et sur la pollution collatérale résultante de Panda induite par la production effrénée de contenu de relativement faible qualité.
Concernant les moyens de retrouver les faveurs de GG après un filtrage Panda je suis moi aussi dans la perplexité mais je soumets une idée folle: Est il possible que le moteur puisse s’appuyer sur l’analyse « visuelle » des aperçus en cache: Repérage de pub au dessus de la ligne ligne de flottaison (On sait que c’est déjà le cas mais comment ça marche???), disposition des éléments textuels du site et lisibilité, présence ou non de visuels, présence d’outils sociaux… Enfin il me semble que le tx de rebond joue de plus en plus (Même si c’est un indicateur fort contestable).
J’évoque cette piste car j’ai constaté une amélioration de positionnement sur un ou deux sites dont j’ai changé (et amélioré) le design uniquement sans toucher au contenu.
Intéressant ton commentaire Thomas, j’ai un de mes sites pénalisé Panda qui bénéficie d’une vingtaine de backlinks .edu, depuis très longtemps et qui a écarté le duplicate depuis 10 ans, et bien il est tombé dans le filet panda tout de même, ce qui serait intéressant en fait c’est de faire travailler quelques milliers d’ordinateurs pour décrypter l’algo de base, mais comme c’est un algo mutant !
Bonjour,
Une petite réflexion supplémentaire en complément de cette analyse avec laquelle je suis plutôt d’accord : Si Panda a fait beaucoup parler de lui dans la communauté SEO, il a aussi réussi à faire parler de lui au niveau du grand public. Et dans grand public, nous avons les décideurs, marketeurs et autres communiquants de gros ou moyens sites pour qui le SEO et la production de contenu n’était pas forcément la priorité.
J’ai eu affaire à de nombreux annonceurs « terrorisés » à l’idée de se faire déclasser par Panda, et pour qui Duplicate Content n’était jusqu’alors qu’un des points récurrents poussés par les agences SEO dans leurs présentations et recommandations. Et je dois avouer qu’il m’arrive d’agiter le spectre Panda pour faire passer plus facilement des recommandations pour la production de contenu de qualité… 🙂
Certains sites, notamment e-commerce, commencent à intégrer de plus en plus cette notion de contenu de qualité, quitte à payer un peu plus cher. Au final, ce contenu de qualité joue également très certainement sur la transformation, même s’il est en effet difficile de mesurer la qualité du contenu sur le positionnement. Ce petit investissement se trouve donc vite rentabilisé.
Il est vrai qu’il est compliqué de cerner réellement panda. Est-ce un concept ? Est-ce une supercherie ?
Pour ma part, je pense que panda est réel. Depuis la mise à jour de l’algo annoncée, la majorité des sites que je suis ont grimpé dans les scores de google ce qui est plutôt pas mal.
Nous l’avons vu dans les commentaires ci-dessus, le contenu unique est roi et le duplicate content doit être abandonné. Les petites entreprises seront celles qui auront le plus de mal dans cette recherche de contenu unique car celle-ci prend énormément de temps.
Difficile d’établir comment le Panda tire ses ficelles. De fait, difficile de s’en sortir.
L’histoire du contenu est intéressant dans la mesure où ce n’est visiblement pas ça qui est véritablement jaugé. D’ailleurs, phénomène très logique mais complètement con, tu prends le contenu d’une page flaguée par Panda, tu la poste sur un autre domaine, neuf ou pas, elle se positionne fort logiquement. D’ailleurs, ça correspond à la possibilité finale pour repartir.
Bref, c’est un peu le flou artistique autour de ces mises à jour.
Maintenant, est-ce que certains sites sont des victimes collatérales du dégommage de certaines catégories de site pour favoriser le business Google en faisant mieux passer la pilule ? Honnêtement, ce n’est qu’une vague hypothèse.
On manque clairement de (nombreux) cas avant / après (sans démantèlement complet des sites) pour une analyse sereine de la chose.
Je reste au passage dubitatif pour la sortie de Panda sur le critère lien externe, sans autre appuie que mon sentiment.
Le côté parano n’est pas si tiré par les cheveux, quand on voit la mésaventure de about.com, suite au filtre « algorithmique » de panda.
Quand on sait que Google s’était positionné pour acheter la plate-forme (finalement acquise par le NYT), cela laisse songeur.
Au final, je pense que Panda est avant tout de la communication. Rassurer les utilisateurs que Google reste le meilleur moteur de recherche du monde. Surtout ne pas sembler impuissant face au spam.
Ah si google était littéraire, ah s’il savait reconnaître la qualité d’un texte, les premières places seraient truffées d’écrivains. Certes, ça commence à se savoir que certains écrivains savent écrire… mais les tarifs d’une véritables prestations d’écriture sont souvent refusés…
Il faudra du temps avant de trouver de véritables solutions pour sortir des effets de panda. Et il en faudra aussi énormément pour le comprendre.
Cela fait du bien de voir que les meilleurs sont tout aussi perplexes que les autres. On se sent moins seul.
Merci
Je suis d’accord avec Argonaute. Je connais un site qui pompe allégrement ses contenus sur Wikipedia et qui pourtant est premier sur sa requête principale.
Ok, on se casse le cul à rédiger des articles propres, à refaire les contenus de nos sites, à prioriser l’ergonomie et la navigabilité aisée mais il faut un petite récompense.
Quand je jette un coup d’oeil à certains sites bien positionnés, je retrouve la bonne vieille soupe du spam à outrance à la fois dans le code source et en lisible sur le site.
Le coup du tuning manuel est certainement probable. Imaginons qu’il prend par pays un site sanctionnable par pays et qu’il en fase sa base 100. Tout ce qui est au dessus est pandaise avec le concept de machine elearning 🙂
En plus quand ces références sont des concurrents aux services de Google, nous n’avons qu’un pas a franchir pour se dire qu’il existe une forte part manuelle.
Bonjour Laurent,
Je ne suis pas une grande professionnelle SEO loin de la même, mais à travers mes lectures sur les différents blogs, je constate qu’il y a globalement de grandes incertitudes sur les orientations de Google. L’article m’a bien plu !
Salut Laurent,
J’ai un blogspot qui est passé à la trappe cet été, supprimé du jour au lendemain,il y avait un peu de pub dessus mais bon…
Je ne sais pas si cela est du à Panda, mais obtenir des retours de positionnements fiables me semble de plus en plus difficile, il m’arrive certaines fois de devoir croiser les outils, car certains (pourtant connus), sont complètement « à la masse ».
Sur mes autres sites, je ne constate pas de changements majeurs, tant que tu optmises en online et offline, avec un contenu unique
Yvan,
Personnellement,
(Je vis en faire bondir plus d’un) cela fait bien 2 ans que je dis :
1. Que le Duplicate Contenu est de la rigolade
2. Que le contenu de qualité est de la rigolade
3. Que le référencemen telle que des agences le pratique actuellement est de la rgolade
Je m’explique :
1. Je ne vois pas en quoi créer du DC pour des textes comme des citations, textes de lois, fiche techniques, titres de presse) etc… est négatif et je ne vois pas non plus en quoi Google serait géné par ce contenu dupliqué !
2. Google ne sait pas interpréter le contenu comme étant de qualité ou pas. D’ailleurs qui peut le faire. Il suffit de regarder / comparer Wikipedia FR et US pour comprendre que le contenu de qualité est bien subjectif. Par ailleurs, comme l’a dit un commentateur ci dessus, traduisez dans G Translate votre texte et vous verrez que Google n’y comprends rien. De plus la qualité est intrionsèquement liée à la culture et à la langue ! Par ailleurs en quoi est-c que cela influe sur Google ?
3. Il va quand même falloir comprendre un jour, que les agences SEO ont de moins en moins de pouvoir de référncement face aux algorithmes de Google, qu’elles essaient de décortiquer des algorithmes auxquelles elles ne comprennnent rien vuq qu’il n’y a aucune communication faites dessus. Faites le test : lancer un site correctement fait, Regardez ou va se situer votre site chaque mois pendant un an… et vous comprendre que vous perdez de l’argent en confiant vos sites à des agences SEO.
La vraie question est de savoir : Que Google gagne-t-il en pénalisant certains sites ?
Un exercice intéressant à faire serait de créer un site dont le thème serait intelligible et le contenu aussi mais dont la structure du site serait correcte. En utilisant des mots inexistants dans aucun dictionaire. Ou se positionnera ce site sans essayer de le référencer ?
Sinon l’artilce est très instructif, et je vois qu’en bon professionnel, tu te poses les bonnes questions ….
Un très bon article et de très bon commentaires sur le m^me sujet :
http://web.appstorm.net/general/opinion/seo-is-breaking-the-web-heres-how/
Il y a beaucoup d’intox chez G.
Je suis convaincu que G lance sciemment des rumeurs et l’histoire nous a appris à ne pas croire ce qu’ils racontent.
Dans le cas de Panda, il y a deux quasi certitudes:
– mesure du taux de rebond, temps sur la page… ce sont des éléments imparables (jusqu’à ce que des robots sophistiqués viennent perturber les statistiques)
– des centaines, voire des milliers ou plus de quality raters
(perso, je crois beaucoup plus à l’efficacité d’un rédacteur en chef plutôt qu’à celle des robots)
Après, on se perd en conjectures
– poids accrus des structures a-la-wikipedia: pages de 1000 mots ou plus, avec un lien interne ou externe pour 150 mots et forcémment beaucoup de LSI
– renforcement du poids du trust rank (un lien venant de microsoft.com vaut plusieurs milliers voire centaines de milliers de profiles)
– meileure détection des ‘content network’ (si par exemple un article spinné contient toujours les mêmes deux liens, il n’est pas difficile de le pénaliser)
– Je ne crois pas trop au poids des réseaux sociaux. Trop facile à spammer à mon avis. En outre, je pense que moins de 1% des internautes utilisent les réseaux sociaux pour des raisons ‘légitimes’. Donc tout signal venant des réseaux sociaux me paraît très sujet à caution. Par contre, je lis ça et là que la caution d’un auteur connu (qui a beaucoup de rel=author et est parcimonieux dans ses tweets) a une bonne influence, et je le crois volontiers.
– Je doute que G soit capable de détecter les contenus dupliqués sauf s’ils sont très mal spinnés. A mon avis, cette histoire est de l’intox pour empêcher les référenceurs de se concentrer sur les vrais problèmes.
Au total, je crois que Panda a beaucoup plus à voir avec les liens entrants et le trust rank que ce que nous avoue G.
Typiquement ce que veut l’algorithme de Google telles que Panda, c’est du contenu de qualité, seuls les site de ferme de contenu qui tente de générer du trafic avec des stratégie de référencement douteuses sont effectivement sanctionnés par le kung-fu panda, lol.
Google nous pousse dans une direction forcée et contraints de générer de la qualité, et non de la quantité.
Je connais des agences SEO, qui ne peuvent s’empêcher de tricher, alors que la seule chose que veut cet algorithme c’est de la qualité.
Au niveau de l’agence dans la quelle je travaille je t’avoue que j’ai un client qui pratiquait le DC mais il était un peu obligé, on ne va pas réécrire des prospectus de médicaments (oui il est dans le secteur de la santé). Par contre pour avoir mi un pavé de contenus à 10 € sur un de mes sites perso ou j’étais 2ème sur une requête qui me faisait gagner de l’argent de poche ma page a disparu au fin fond de l’index retour à l’ordre (enfin presque 7ème position) près de deux mois après avoir enlevé le contenu bannis.
Je ne critique pas pour autant le contenus à moins de 10 € on peut trouver son bonheur sinon rédiger soit même ….
la notion de qualité de contenu est peut être plus à envisager dans une optique de rétention d’internautes, de bookmarks, que pour prioritairement plaire à GG (mais aussi).
Face aux sautes d’humeur, aux incohérences même du Panda, l’importance d’avoir un socle de visiteurs fidélisés qui s’accentue de jour en jour quelque soit le positionnement est une alternative qui tempère un peu la « GG dépendance » (sans l’annihiler évidemment) : socle qui s’accentue vite si le site est bien placé dans les serp, lent autrement, mais ce socle se constitue, d’autant que les réseaux sociaux, voire la blogosphère constitue un autre canal d’acquisition potentiellement fulgurant pour les sites de qualité, je partage d’ailleurs pas mal l’avis de David (post 17 février, 2012 à 10 h 24 min)
Bonjour Laurent,
J’avoue être dérouté par l’algorithme Google. Mes expériences sont truffés d’exemples et de contre-exemples.
J’ai eu des pertes de positions sur certains sites et des gains de positions sur d’autres alors que la méthode et le fonctionnement était quasiment identique.
Je suis en mode « observation » pour le moment.
amicalement
J’ai beaucoup apprécié le commentaire principal de Stéphane et je le rejoins sur l’idée, moi je ne bondis pas, j’approuve 🙂
Et cette idée de site incompréhensible, je serais très curieux de voir ce que ça donne!
Certains estiment qu’il sera plus axé sur les environnements graphiques, d’autres pensent qu’il sera créé pour la recherche d’informations géolocalisées, d’autres encore voient une évolution progressive et logique du contenu du Web 2.0
« Partant du principe qu’un moteur est idiot puisqu’il ne comprend pas ce qu’il lit »
Tout est dit dans cette simple phrase… Et c’est pour ça qu’on passe notre temps à s’adapter à une machine qui fait des règles contradictoires :).
Au niveau tarification des contenus, j’ai l’habitude de travailler avec des journalistes qui produisent du vrai contenu pour environ 100euro le feuillet… Apparemment, c’est devenu un standard.
Quant à la soupe de contenus à 5euro, je déteste ça…
Effectivement, je pense que le contenu de mauvaise qualité a encore de beaux jours devant lui. Il est pour l’instant très difficile d’automatiser le jugement de la qualité d’un texte…
@Yacine, si le contenu est unique meme pourri, je vois pas comment google peut pénaliser un site qui met un article de ce type la?
Moi pour ce type d’article, j’y met la forme, title, gras, surligné, italique, paragraphe, j’ai l’intuition que ce sera beaucoup mieux vu par google qu’un pavé de texte desorganisé
Votre analyse est vraiment très intéressante. Je pense qu’une intervention manuelle de la part de google n’est absolument pas à exclure, d’où l’importance de « bien présenter » non seulement pour les moteurs mais aussi pour l’internaute (ou l’employé de google…). Les différences de traitement s’expliqueraient beaucoup mieux comme ceci qu’avec toutes les « âneries » que l’on peut trouver sur le web.
Pour rebondir sur le commentaire de Nicolas, je suis moi aussi un fan d’Olivier et le suivant très régulièrement, je confirme que son site est dénué d' »âneries » dont je fais allusions, lui, comme vous ici, se base sur des faits et son expérience personnelle, pas sur n’importe quelle lecture prise au hasard sur la toile…
Je partage avec vous ma dernière trouvaille de contenu plus que médiocre puisqu’illisible et qui ne semble pas nuire à la marque :
h#ebbeh#ouse.blogspot.com (enlevez les # pour suivre ce lien…), il est difficile de faire moins lisible !
Pour l’avenir, je vois bien comme certains l’ont déjà évoqué une prise en compte de plus en plus importante des réseaux sociaux histoire de laisser la lourde tâche d’une vérification manuelle à des milliards d’internautes. Bientôt (ou peut-être déjà…), on travaillera tous pour google mais bénévolement !
Il me semble également évident que GG fait une grosse partie de son écrémage en manuel. Il est complètement impossible de déceler pour un robot du « bon » du « mauvais contenu » à mon avis. Et d’abord c’est quoi du « mauvais » contenu? C’est super subjectif!
Forcer les webmasters à utiliser un balisage sémantique, des paragraphes bien formés, un minimum de longueur dans les textes : en théorie c’est ça pour GG du « bon contenu » mais plus ça va et plus l’algo me déroute… le seul truc qui marche constamment d’un site à l’autre c’est le spamco, c’est triste quand même.
Pour moi cela semble assez simple, faire du contenue ne suffit, il faut qu’il soit de qualité certe, mais comment Google mesure l’impact d’un bon contenu ?
Il compare le comportement des lecteurs sur différents articles d’une recherche données.
Il sors en extrait un taux de rebond, un taux de lecture (temps passé sur le site / Nombre de mots)
puis il track le lecteur afin de savoir si il a eu l’information qu’il cherchais ou vérifiant qu’il ne va pas sur d’autre site pour trouvé une information plus complète, mieux rédiger, etc…
En conclusion, il ne sert a faire du contenu si sa intéresse personne car les différentes métriques permette de définir la qualité d’une page.
Le texte permet quand même de différencier les pages en termes de duplication de contenue, mais peu jouer le rôle inverse si il n’est pas intéressant. Le tout est trouver le bon dosage entre le nombre de mots et le temps passé sur un site.
Comme beaucoup ici visiblement, j’en arrive aussi parfois à me demander s’il y a réellement une logique dans tout cela… Finalement, les résultats de Bing me paraissent parfois plus naturels car moins pollués…
En ce qui me concerne je vois pas une logique dont la manière google opère son ranking . Ou peut étre que je n’ai pas encore trouvé une formule qui marche .
Tout ce qui reste à faire selon moi est de tester ,tester et tester encore .. qui connait une autre solution?
Surement il y a des bonnes pratiques pour mieux référencer son site , mais trop de paramétres à tenir en compte , font de ces bonnes pratiques rien d’autre que des mythes .
Sachant qu’au départ que si votre référencement est de qualité, et qu’il respecte les règles de Google, il n’y a pas de raison d’avoir peur de n’importe quel changement d’algorithme de Google. Il suffit de s’adapter aux nouvelles procédures en référencement.
Il faut arrêter de faire peur à tout le monde,et de créer une psychose générale,qui en définitive ne sert à rien.
Très bon article sur Google Panda !
Pour ma part, c’est tout de même difficile de savoir les réels intentions de Google et comment il procède pour le référencement de contenu, mais c’est ce qui fais son succès.
Bon.. Panda c’est cool mais plus sérieusement, il est quand ton prochain Podcast là ? 🙂
Tous les vendredis, je me matte les petits podcasts vidéos de la communauté. Alors certes SEO Moz c’est cool, mais vivement ton prochain avec ton franc parlé que j’apprécie beaucoup 😉
Je serais un peu plus modéré que Stephane sur son point 3. Je pratique le SEO et j’ai également reçu des prestations de la part d’agence et toutes de sont pas aussi mauvaises que ce que vous affirmez. Pour certaines niches il m’est même parfois indispensable de travailler avec différentes agences en même temps pour varier les backlinks. Et croyez moi le retour sur investissement est là ! Par contre toute ne se valent pas certes, une que je ne citerais pas (peut être que je devrais) a même réussit à me griller un site (sandbox) vieux de 4 ans !