Le Spamdexing ou le Référencement excessif

Le Spamdexing ou le Référencement excessif

Le Spamdexing

Le Spamdexing ou le  Référencement excessif

 

Spamdexing, ou référencement excessif, est un regroupement  de techniques qui consiste à tromper les outils de recherche sur le côté qualitatif d'une  webpage ou d'un website pour obtenir, par l’intermédiaire d’un mot -clef donné, un classement optimal dans les résultats des outils (en premier dans la top liste des premiers résultats, parce que les internautes vont très peu au-delà  de la première page qui ne dispose que d’une dizaine d’adresse.

 « Spamdexing » se compose du mot « spam » et du suffixe « dexing » copiésur le terme « indexing » qui veut dire  référencement. Au nord des Etats Unis un pays, on propose comme transcription de spamdexing  « référencement excessif, abusif ». En France, il n’y a pas  de traduction qualifiée.

Elle est quelquefois sévèrement punie par les outils de recherche, même si les webmasters n’ont pas vraiment de règle la concernant (il est compliqué de différencier le référencement abusif de la SEO de la maximisation « honnête). Les techniques usuelles de référencement excessif autorisent en exemple à remplir une page satellite de listes de mots-clefs (pour allécher les visiteurs d’outils de recherche qui font une requête sur ces mots), ou à générer des dizaines de websites qui s’orientent les uns vers les autres (pépinières de liens) pour accroitre leur positionnement dans les outils de recherche  qui jugent la qualité d'une webpages par rapport à la quantité de liens s’orientant vers elle.

 

Le fonctionnement

 

Normalement, les moteurs de recherche classifient les résultats en fonction de la  qualité des web pages et leur intelligence selon la requête ; mais les engins actuels (en opposition  aux annuaires, faits par des hommes, qui refusent les websites de qualité médiocre) tentent d'estimer la qualité et l’intelligence des webpages par des processus automatiques, dont les origines sont connues, dans par les polluposteurs et les maximiseurs de websites :

   Une  webpage est présupposée de qualité optimale  si une quantité de liens externes s’oriente vers elle; il est facile de mettre en place  divers  websites qui convergent vers le website qu'on veut soutenir (ou alors d'échanger des liens avec des websites alliés, administrés par d'autres individus. Voici  le tissage de liens ;

    Une webpage est présupposée pertinente, en repartie à une recherche donnée, si elle a de nombreux mots présents dans la requête ;

    Les  différents mots de la webpage ont un poids plus conséquent en fonction de leur emplacement (par exemple, « vente de meubles » figure dans le titre, la webpage est très vraisemblablement affectée à ce sujet) ;

 

    Les  moteurs sont aussi sensibles aux mots figurant dans les URLs (ce qui allègue des URLs colossales importantes, avec des redondances, analogue à www.exemple.com/voitures-pas-cheres/voitures-en-france/voitures-en-chine.html).

Les manières de référencer évoluent avec le temps et s'ajustent aux moteurs. Une nouvelle technique est née : la « saturation par des intégrations variés » : le propriétaire du website à encourager propose son contenu à divers partenaires qui possèdent un nom de domaine avec une position élevée par PageRank et une quantité de webpages élevée, ce qui aidera leur montée dans les résultats. En découle une saturation de la webpage de résultats des outils de recherche. On peut alors réussir à avoir plus de 75% des résultats de recherche positionnés en première page par les outils de recherche. Comme la majeure partie  des clics se font sur la première page d'une requête, ils garantissent ainsi un maximal de visibilité et éliminent leurs adversaires.

Le Spamdexing

Le référencement éthique "vs" le spamdexing

 

En opposition aux techniques de référencement  abusives ou spamdexing, quelques individus avancent la possibilité d'un référencement « éthique » qui  reposerait sur un code déontologique. Quelques websites, ou associations de webmasters, se sont avancés à proposer leur idée d'un code déontologique dans le domaine du marketing des outils de recherche. Ces enseignements n'ont aucune force de fait, et fluctuent d'une appréciation à l'autre, et n'engagent que ceux se reconnaissant dans de types de modèles « éthiques ». Ces codes d'éthique sont écrits par intimidation des outils de recherche.

Les engins de recherche ont un triomphe disproportionné face au référencement abusif. Quelques webpages peuvent se trouver bien placées alors que d'autres sont terriblement châtiée. On n’explique pas vraiment ces différences, car les moteurs ne divulguent pas d'information sur les raisons de ses choix. Cette variance dans le traitement confirme que les algorithmes de référencement mis en place sont compliqués et difficiles à expliquer.

Un outil comme Google appose des pénalités manuelles à quelques  websites mais privilégie les résultats algorithmiques.

 

L’Imposture du spam ou le spamdexing

 

Pour ne pas donner des suspicions au visiteur qui verrait sur son PC une liste importante de mots, les nombreux termes positionnés dans une webpage pour « attraper » les outils de recherche sont généralement cachés par divers procédés :

    = déportation de ces listes de mots en bas de webpage

    = graphisme en caractères minuscules ;

    =  caractères de  couleur identique  que le fond de la webpage (le texte est alors invisible)

    = outils de recherche  ou annuaires postant de longues listes de « dernières recherches » ou de « recherches répandues »

    = webpages actives  travesties en webpages statiques, comprenant des Urls tels que :  example.com/trouver-recherche.php: cette adresse ressemble à celle d'un fichier statique qui serait trouver-recherche.php, et située sur le serveur de l’engin de recherche, alors que c’est en fait d'une webpage dynamique générée  au moment de la recherche : le fait de « costumer » ainsi l'URL facilite son référencement  si on présuppose que les pages dynamiques peuvent ne pas être référencées par les outils de recherche, ou conquérir un positionnement inférieur à celui des webpages statiques. En général, les webpages de résultats des moteurs leaders ont des URLs analogue à example.com/recherche.cgi?requete, où le contenu textuel de la recherche n'est pas masqué en nom de fichier ; en sus , ces moteurs prohibent explicitement : l'optimisation, le positionnement dans le cadre du référencement de ces webpages grâce à un fichier robots.txt ;

    Retrait des mots par l’intermédiaire d’script (comme  JavaScript) 

    Une webpage satellite, avec pleins de mots-clés, est lue par les robots des outils de recherche. Mais lorsqu’un homme la consulte, il est dirigé vers une autre webpage (et ne voit donc  pas la fausse webpage) ;

    Le cloaking ou  occultage, présente des résultats divers  en fonction du  logiciel utilisé pour afficher la webpage: une webpage innocente pour un navigateur internet, une page maximisée, bourrée de mots-clefs, réservée aux robots des outils de recherche ;

    Les entreprises de SEO, sur leur première page, montrent des exemples de websites qu'elles ont maximisé, chaque adresse étant positionné derrière un mot qui décrit le sujet du website ciblé; ce qui permet aux webpages des optimiseurs d’avoir des mots qui ne sont pas en relation avec l’activité (et d’être présent parmi les résultats des requêtes  portant sur ces mots). Elles peuvent aussi positionner un lien vers leur propre website dans chaque webpage qu'elles changent.

    Le zurnisme est la conception d'un néologisme pour générer  une exclusivité de référencement. Le mot zurnisme est lui-aussi un zurnisme, créé en 2007 par un blog en France. Aucun outil de recherche  n'est capable de reconnaître l'intention dissimulée derrière la création d'un néologisme.

 

Les listes noires

 

Les techniques malhonnêtes sont mises sous surveillance, et même  sanctionnées, par les outils de recherche qui améliorent quotidiennement  leurs algorithmes pour éliminer les websites qui trichent pour leur placement.

Quand les fraudes sont constatées (grâce à  un robot, un humain, ou un concurrent), la webpage ou le website ciblé est mis sur une liste noire (déréférencement  du moteur de recherche  pénalisant fortement  le website) pour un laps de temps de plusieurs mois à un bannissement  définitif ou jusqu'à ce que le website respecte de nouveau  les conditions de référencement de l'outil.

Google a positionné « bac à sable » (sandbox) qui est une recommandation avant le positionnement au sein de la liste noire, mais aussi une solution pour empêcher les nouveaux websites d’escalader trop vite sur certains mots-clefs dans les recherches.

Google, propose une webpage en plus de 90 langues pour préserver la qualité de l'index avec un rapport de spam fonction des pratiques proscrites  vues ci-dessus, ce qui favorisera l’entrée  un jour au sein du référencement éthique

Pas de commentaire.

Ajouter un commentaire

Vous devez être Connecté pour poster un commentaire.