Pour rebondir sur un commentaire que j’ai fait à Nantes, lors du SEO Camp, j’ai envie que nous établissions une liste des stratégies Jean Claude Duss SEO.
« Sur un malentendu ça peut marcher ».
Jean-Claude Duss mon héro
Je peux me tromper, mais il me semble que c’est Kevin qui a copyrighté le concept du Jean-Claude Duss SEO.
Le #JCDSEO s’observe lorsqu’une stratégie improbable est mise en œuvre, souvent en pensant que c’est une excellente idée au départ, mais qui se révèle absurde lorsqu’on a un peu de bon sens et qu’on connait un minimum les choses du référencement.
Dans les meilleurs des cas cela ne donnera rien et dans les pires cela va engendrer un désastre du genre chute du positionnement sur Google.
Voici quelques stratégies #JCDSEO :
- Faire du référencement international avec un TLD géolocalisé (.fr par exemple).
- Fabriquer des pages à partir de son moteur de recherche interne ou toutes techniques de « référencement longue traîne » consistant à faire des pages qui ciblent une infinité de mots clés plus ou moins pertinents.
- Garder un clone de son site.
- Utiliser un plugin pour faire des liens internes sur des ancres optimisées.
- Opter pour une prestation de netlinking à 19,99€.
- Utiliser un contenu spinné pour agrémenter ses catégories produits.
- Résumer sa stratégie mots clés à l’ajout dans la META Keywords.
- Cibler la même requête avec un gros paquet de balises TITLE.
- Mettre trois fois le mot clef dans la TITLE parce que le N°1 sur la requête le fait.
- Mettre sa pagination en « noindex, follow » (Google ne crawle pas ou peu les pages en noindex).
- Capitaliser sur le SiteMap.xml pour indexer des URLs.
- Rediriger un site en 301, puis le mettre en Disallow dans le robots.txt (comment le bot va t’il crawler les redirections ?)
Edit 21/04/2016
Olivier Andrieu rajoute un excellent exemple de #JCDSEO
@laurentbourelly Oui faire une infographie et attendre sans rien faire qu’elle soit publiée, j’ai un de mal avec le concept, en fait…
— O.Andrieu Abondance (@abondance_com) 21 avril 2016
Ben oui, se contenter de publier un contenu (infographie ou autre), sans effectuer des actions de promotion, rend tout à fait improbables les chances de succès.
La stratégie Dussiène n°7 étant malheureusement encore en vogue. Une nouvelle recrue seo m’ayant affirmé que c’était la technique sine qua non pour ranker.
Bien entendu, la pelletée d’articles infirmant cette assertion n’ont pas pesé lourd face à sa conviction.
– Avoir les lignes « User-agent: * » & « Disallow: / » dans robots.txt
– Copier/coller des pages Wikipedia
– Récupérer des articles à droite à gauche pour élargir son champ sémantique
– Miser sur un site full Ajax avec la technique du escaped fragment et de du headless browser de Seomix
– Créer un sous-domaine par target keyword
– Faire produire son contenu à Madagascar à 1€ le feuillet
Salut Laurent,
– faire un site d’une seule page
– faire un site en flash qui claque
– un peu identique au précédent, ne mettre que des images, car personne ne lit les textes de toutes façons
– aller inscrire son site sur le formulaire de soumission de GG pour qu’il soit mieux référencé
– mettre le nom de ses concurrents dans sa title
– faire 0 lien car sinon GG va nous pénaliser
…
– Cliquer sur les résultats dans les SERPS pour le faire ranker.
Je l’entend chaque quinzaine.
Bien vu Christian pour le dernier point !
« Faire 0 lien », celle-là je l’entends de plus en plus ça en devient délirant.
Le problème c’est que les non-initiés ou ceux qui pensent l’être en lisant quelques articles à droite à gauche sont capables de tout prendre pour argent comptant.
Alors qu’un minimum de bon sens et de modération suffisent déjà à obtenir de meilleurs résultats que la plupart des concurrents (tant qu’on ne va pas sur de l’hyper concurrentiel j’entends) .
Heu …
— la meta robot revisit-after ?
— Mettre plein de texte caché ?
…
Euh… je ne voudrais pas me faire l’avocat du diable mais ça :
des fois, ca marche quand même pas mal si tu as une bonne stratégie de contenu/groupe de pages
(bon sur ce, j’y retourne parce que là, j’crois que j’vais conclure ! 😛 )
Croire que la balise meta description a une influence sur le positionnement…
MAIS elle est très importante pour le taux de clics dans les SERP’s. C’est elle, avec le title, qui va inciter le clic ou non selon qu’elle soit attractive ou non (marketing)
Installer Yoast sur wordpress et se contenter d’allumer le point vert 😉
Confier son SEO à Seolius #JCDSEO .
Vous avez oublié la meilleur façon de ranker :
– texte noir sur noir
Évidemment je crois que j’ai une ouverture
Je valide ! 🙂
Vieux mais douloureux :
monter un pligg sans modération pour y mettre un lien optimisé en footer vers son money-site : depuis 2013, invité à manger tout les mercredis soir 🙂
Faire une dizaine de sites sur la même thématique, avec le même template, le même CMS, whois visible avec le même propriétaire, tout ça sur la même machine, et surtout, surtout mettre pleins de liens avec ancres optimisées sous le footer (vu avant hier sur les sites d’un futur client, qui, justement, voyait pleins de webmaster en recrutement: tous lui disaient d’en mettre plus). #Armée-de-JCD #SEO-FAIL #Penguin-Mon-Amour
Une propale sur le #JCDSEO de fin d’année 2014 :
1/ Lire partout que désormais le référencement est sémantique
2/ Scraper les 5 articles les mieux positionnés sur son KW fétiche de moneysite
3/ Passer 3 jours à tenter de faire un calcul savant sur la représentativité du terme dans les docs et sur le web
3/ Ré-écrire un pot-pourri (mais sans spin, attention, c’est toute la différence avec un mauvais référenceur monsieur !) qui incorpore tous les termes et leurs cooccurrences, avec le plus de mots rares pour faire savant et penser laisser croire à Google que notre document est bien plus quali. que wikipedia et tous les sites .edu et .gouv réunis.
4/ Attendre que la page ranke naturellement (cf. ci-dessus), et puis finalement mourir en s’expliquant son échec par le fait que Matt Cutts n’est jamais revenu à son poste.
« Fabriquer des pages à partir de son moteur de recherche interne ou toutes techniques de « référencement longue traîne » consistant à faire des pages qui ciblent une infinité de mots clés plus ou moins pertinents. »
> Cette stratégie marchait particulièrement bien il y a quelques années (avant 2010), en particulier sur les sites à grosse volumétrie de pages. Il faut reconnaitre que c’était particulièrement bourrin.
« Utiliser un plugin pour faire des liens internes sur des ancres optimisées. »
> A fonctionné également il fut un temps (matrice de liens sur ancres optimisées) mais pas en utilisant des plugins, plutôt en créant la matrice avec des outils de modélisation de la distribution du PR. Il fallait un gros volume de pages également pour que l’effet soit significatif.
« Mettre sa pagination en « noindex, follow » (Google ne crawle pas ou peu les pages en noindex). »
> Pis aller à l’intégration de balises prev/next. C’est peut-être déjà mieux que de ne rien mettre ? Quoique, Google détecte très bien tout seul les paginations maintenant.
Avoir une navigation a facette crawlable et indexable a l’infini pour créer un infinité de pages… J’ai bon?
C’est que avec tout ce qui a été dit j’ai du mal a en trouver une nouvelle… faudra que je revienne des qu’une technique #JCDSEO e traverse la tete
Toujours utiliser les mêmes ancres optimisées sur tous les liens de ses pages, ne mettre que ses liens en footer et en sitewide, dupliquer ses contenus … en attendant de remonter, on pourra toujours chanter ce refrain http://www.dailymotion.com/video/x34mo0_jean-claude-duss_fun !
Avoir un super site marchand responsive ou mobile (parce que c’est l’avenir et que c’est là qu’on va faire du blé) et oublier d’y intégrer son Blog et ses contenus statiques (parce que ça coûte cher et de toute façon faut que le visiteur y vienne dépenser son blé ici, point bar!)
Dans la même lignée que mon commentaire précédent: bloquer Javascript et CSS dans le robots.txt pour les agents bot mobile en pensant pouvoir réduire le nombre de page indexées inutiles
J’en ai un autre, mais c’est du lourd :
« Pas besoin d’un site internet, je suis dans les pages jaunes »
Tapez le même Duss-Title sur toutes les pages du site.
« Parce qu’on dirait le Duss, et c’était tellement bien… »
Plein de bons conseils!
Pour moi la base pour avoir un bon PR (celui de la TBPR) et donc un bon SEO c’est de ne faire aucun lien externe. ou de les mettre en nofollow. comme ça Googlebot reste emprisonné sur ton site éternellement.
J’en ai quelques unes:
– faire enlever l’url rewriting des pages pour « favoriser » des pages satellites d’une qualité très douteuse
– oublier l’opti on site pour » favoriser » des pages satellites d’une qualité toujours douteuse
– indexer la pré-prod ( et feindre un air très étonné quand on le découvre)
– Faire un site web par catégorie et avoir la moitié des pages en contenu dupliqué
– S’accrocher à ses liens comme à des bouées en pleine tempête ( mais il va le lacher son profil de forum russe … )
et une spéciale pour moi :
– Se faire un coup de flippe d’anthologie en voyant des liens sur des sites russes avant de se rendre compte que ce sont de vrais liens naturels 😉
Envoyer ses mots clés au 8 12 12
Mettre une quinzaine de sur sa home pour lui donner plus de poids.
J’en ai quelques-unes:
– Ne faire aucun lien vers un site externe car Google n’aime pas et aussi pour ne pas transmettre du jus.
– Ne pas s’intéresser aux logs serveur.
– Oublier de travailler le temps de chargement des pages.
– croire un client qui te dis qu’il a été victime de negative SEO avant que tu te rende compte qu’il link ses fiches depuis son propre site 🙂
– Mettre le Titre du site ou le Logo en H1
– Acheter toutes les déclinaisons de domaines que préconise Woorank (même celles avec les fautes de frappe)
– Ne créer aucun profils sociaux lié à son site
– Changer les url des pages les plus populaires de son site.
… La suite dans un prochain com 😉
– pratiquer le keyword stuffing
– recopier plusieurs fois le même paragraphe sur une même page pour faire du contenu
– publier une soupe de mots indigeste pour créer du « contenu ».
– publier une fiche d’annuaire de 50 mots avec 5 liens
– faire du NSEO envers un de ses concurrents en s’y prenant comme un manche et donc en se faisant très vite repérer
– …etc…
– Copier l’ensemble de ses fiches produits pour son site boutique sur Amazon,
– Acheter une licence XRumer, lancer un blast de quelques milliers de liens sur des sites les plus douteux, sur son site d’e-commerce
– Attendre un mois, et désavouer l’ensemble des liens via Google
Je cherche encore d’autres idées, vu tout ce qui a été posté…