C’est la question que pose Thierry Crouzet dans ce billet «Danger: duplicate content / Danger: Google». Je serais curieux de savoir ce que des pros comme Éric Baillargeon ou Michaël Carpentier pensent de cette opinion à l’effet que «Google voudrait que les choses ne soient présentes qu’une fois et qu’il y ait très peu de liens entre les pages». M. Crouzet va plus loin:
«Il [Google] voudrait plutôt que nous naviguions de site en site comme c’était le cas à l’origine, nous naviguions toujours par lui, c’est-à-dire que nous allions où il nous laisse aller.»
Je me souviens d’une querelle assez épicée entre Michelle et lui qui s’était terminée par des excuses et il était justement question de «duplication de contenus» et «d’entreprise pyramidale». Google est-il en train de contribuer «à la mort du web tel que nous l’avons connue durant les quinze premières années de son histoire»comme semble le craindre l’auteur du «Cinquième pouvoir»?
Je viens justement de demander à un jeune entrepreneur en éducation de ne pas republier intégralement le contenu de certains de mes billets, mais d’y aller avec des extraits par un fil de nouvelles où seuls les 75 premiers mots seraient «pompés» (voir ici pour visualiser ce que ça donne); ai-je eu raison de demander qu’on procède de cette façon dans la poursuite d’une stratégie gagnant-gagnant?
Thierry Crouzet se demande «à quoi joue Google?» Il me semble que la question se pose, mais peut-on aller jusqu’à parler de «phobie du duplicate content»? Loin de moi l’idée de repartir une polémique, en passant, mais ce sujet me semble commander quelques précisions pour des internautes comme moi pour qui l’algorithme de Google n’est pas la lecture de chevet.
Merci d’avance de vos opinions éclairées…
Tags: LesExplorateursduWeb
On peut voir la chose de différentes manières et je ne suis pas un pro du SEO, mais je vais te dire ce que j’en pense au plan éthique. À l’origine du Web 1.0, il y a 10-12 ans (avant, c’était la phase beta : ), beaucoup d’éditeurs Web se permettaient de pomper carrément les articles complets d’autres sites, parfois même sans les citer ni faire de liens. À Multimédium, j’ai piqué quelques colères mémorables contre ce genre de méthode, allant jusqu’à pourfendre un sénateur français qui en était coupable. Ce fut donc avec grand soulagement que j’ai vu poindre la méthode musclée de Google qui pénalisait la duplication des contenus à l’identique.Par ailleurs, l’essence même du Web est enchâssée dans le concept d’hypertexte : une infinité de contenus uniques reliés les uns aux autres, se complétant les uns les autres, et ce pratiquement sans fin. Comme la nature, au fond, et comme la vie elle-même. La duplication est stupide et tend à enfermer l’internaute dans un univers restreint au lieu de l’ouvrir sur le monde, dans un écosystème aéré, symbiotique, riche en aventures et en rebondissements. Les médias trad sont les derniers à ne pas comprendre ça et à vouloir à tout prix continuer à enfermer les internautes entre quatre murs publicitaires. Heureusement, leurs jours sont comptés et les meilleurs d’entre eux commencent à évoluer.Bref, je ne sais pas à quoi joue Google d’un point de vue SEO, mais je soutiens à 100% sa volonté de pénaliser la production de masse non différenciée, la standardisation, la banalité, le manque de créativité. À ta place, je ne me poserais pas de question car les voies du Seigneur sont impénétrables et la fin justifie les moyens :)Par contre, je comprends guère la volte-face toute récente de GG au sujet de la neutralité du Net, mais c’est une autre histoire…
Dire que la nature déteste la duplication c’est un peu étrange non? Il y a une centaine d’atomes différents pour construire tout le reste.
C’est la même chose dans le domaine biologique où certaines séquences se retrouvent partout.
Mon exemple des droits de l’homme me paraît pertinent. Ne faut-il pas les dupliquer ? Je crois que si… c’est le principe des tracts qu’on colle partout. Plus des textes sont dupliqués, plus ils ont de chances de trouver des lecteurs.
Je n’ai pas dit que Google pénalisait les duplicate content, j’ai dit que chez les éditeurs il y avait une paranoïa à ce sujet. J’espère qu’elle est injustifiée.
D’ailleurs mon billet sur le duplicate content a été republié par coZop et cette version du texte sort en premier si je lance sur Google une requête avec le watermark placé à la fin du texte. C’est la preuve que Google n’a pas pénalisé coZop pour avoir repris mon texte.
Google sait en plus que j’en suis l’auteur car il avait initialement détecté ce texte chez moi et que chez coZop un line pointe vers le billet original. On peut peut-être lui reprocher de ne pas favoriser la source. Moi ce qui compte c’est que mon texte trouve des lecteurs. Dans une logique financière, on pourrait accuser coZop de voler du trafic. Mais coZop rémunère les textes et offre des stats détaillées (donc que le trafic soit généré ici ou là m’importe peu… je me moque qu’on lise mes livres dans son lit, sur ses toilettes, dans un café…).
Cette expérience semble donc prouver que Google ne pénalise pas les duplicates et que c’est avant tout une paranoïa.
J’espère que c’est le cas et que ça le restera. Car il me semble de notre devoir de dupliquer les choses qui nous paraissent importantes, toujours en respectant leur auteur.
Moi je ne sui pas contre le duplicate content bien au contraire. Je suis contre les redirections menant au contenu original qui sont désactivées. C’était plutôt ça le point de discussion entre moi et monsieur Crouzet. D’ailleurs si j’ai quelques 70 000 hyperliens externes dans Yahoo en trois ans, c’est justement parce que valorise qu’on reprenne mes contenus à la grandeur du Web, mais pas n’importe comment. Celui qui est pénalisé dans le duplicate content est celui qui reprend, à moins qu’il ne soit pas assez honnête pour hyperlier le contenu d’origine dans les règles. D’ailleurs, dernièrement Wikio a été dans le caca mou après qu’il fut dévoilé qu’ils faisaient des redirections « no follow ». Ce problème est maintenant résolu…
Google l’a longtemps laissé entendre, et a fini, à force de devoir répondre à la pièce aux rumeurs, par publier un démenti officiel à ce sujet. J’en ai d’ailleurs déjà parlé ici.
Cependant, ce qu’il faut comprendre, c’est que l’auteur original d’un contenu n’a rien à craindre, alors que ceux qui le copient (ou reproduisent) perdront des plumes. Un peu normal que les auteurs d’un texte en récoltent davantage les bénéfices que ceux qui ne font que le reproduire…