Google ajuste son algorithme pour contrer spams et contenus dupliqués
Et rejette les critiques sur la qualité de ses résultats

Le , par Idelways, Expert éminent sénior
En réponse aux critiques acerbes ayant récemment remis en question la qualité de ses résultats de recherche, Google entreprend de mettre à jour son algorithme pour contrer les sites de spam et de contenu dupliqué.

Ces mises à jour devraient s'attaquer aux sites qui fraudent ou enfreignent les lignes de conduite tracées par Google et ce dans le but de s'accaparer les premières places des résultats. Sont particulièrement visés ceux qui copient le contenu des autres sites et/ou qui disposent d'un taux faible en contenu original.

Matt Cutts, en charge des mesures antispam chez Google, avait fait allusion à ces changements depuis une dizaine de jours sur le blog officiel de Google.

Cutts avait fermement plaidé en faveur de la qualité des résultats qu'il juge « meilleure qu'elle n'a jamais été en terme de pertinence, d'actualisation et d'exhaustivité ». Il avait en revanche regretté une augmentation drastique du « Web Spam » tout en annonçant de nouvelles mesures.

Sur un nouveau poste, publié cette fois sur son site personnel, Cutts affirme qu'un changement de l'algorithme vient d'être approuvé par son équipe et devrait entrer en production en ce début de semaine.

Cet ajustement devrait affecter 2 % du total des requêtes et changer sensiblement le positionnement de 0.5 % d'entre elles. Les internautes devraient donc voire arriver en tête les sites à l'origine du contenu plutôt que ceux qui les copient.

A l'échelle de Google, ce faible pourcentage de sites concernés représente une immensité de sites réels et de requêtes.

Pour rappel, plusieurs blogueurs et analystes renommés avaient publié des articles remettant en cause la qualité des résultats de recherche de Google jugeant, en substance, qu'ils croulaient sous les spams et des « fermes de contenu ».

En décembre dernier, Google avait introduit deux nouvelles balises Meta pour identifier les sources réelles des informations et permettre aux webmestres de déclarer leurs contenus comme étant originaux.

Source : le blog officiel de Google, site de Matt Cutts

Et vous ?

Que pensez-vous de la qualité des résultats de Google ?
Avez-vous récemment constaté une amélioration ou une dégradation de la pertinence des résultats à cause des « fermes de contenus » ?


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de Seb33300 Seb33300 - Membre émérite https://www.developpez.com
le 01/02/2011 à 9:46
La question est : Comment google peut il savoir quel site est à l'origine du contenu ?

Ne peut on pas déclarer un contenu comme étant l'original si ce n'est pas le cas ?
Offres d'emploi IT
Responsable protection des données H/F
Safran - Ile de France - Magny-les-Hameaux (78114)
Consultant sap finance/controlling H/F
Safran - Ile de France - Vélizy-Villacoublay (78140)
Ingénieur analyste programmeur (H/F)
Safran - Auvergne - Montluçon (03100)

Voir plus d'offres Voir la carte des offres IT
Responsable bénévole de la rubrique Développement Web : Xavier Lecomte -