IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Google ajuste son algorithme pour contrer spams et contenus dupliqués
Et rejette les critiques sur la qualité de ses résultats

Le , par Idelways

0PARTAGES

1  0 
En réponse aux critiques acerbes ayant récemment remis en question la qualité de ses résultats de recherche, Google entreprend de mettre à jour son algorithme pour contrer les sites de spam et de contenu dupliqué.

Ces mises à jour devraient s'attaquer aux sites qui fraudent ou enfreignent les lignes de conduite tracées par Google et ce dans le but de s'accaparer les premières places des résultats. Sont particulièrement visés ceux qui copient le contenu des autres sites et/ou qui disposent d'un taux faible en contenu original.

Matt Cutts, en charge des mesures antispam chez Google, avait fait allusion à ces changements depuis une dizaine de jours sur le blog officiel de Google.

Cutts avait fermement plaidé en faveur de la qualité des résultats qu'il juge « meilleure qu'elle n'a jamais été en terme de pertinence, d'actualisation et d'exhaustivité ». Il avait en revanche regretté une augmentation drastique du « Web Spam » tout en annonçant de nouvelles mesures.

Sur un nouveau poste, publié cette fois sur son site personnel, Cutts affirme qu'un changement de l'algorithme vient d'être approuvé par son équipe et devrait entrer en production en ce début de semaine.

Cet ajustement devrait affecter 2 % du total des requêtes et changer sensiblement le positionnement de 0.5 % d'entre elles. Les internautes devraient donc voire arriver en tête les sites à l'origine du contenu plutôt que ceux qui les copient.

A l'échelle de Google, ce faible pourcentage de sites concernés représente une immensité de sites réels et de requêtes.

Pour rappel, plusieurs blogueurs et analystes renommés avaient publié des articles remettant en cause la qualité des résultats de recherche de Google jugeant, en substance, qu'ils croulaient sous les spams et des « fermes de contenu ».

En décembre dernier, Google avait introduit deux nouvelles balises Meta pour identifier les sources réelles des informations et permettre aux webmestres de déclarer leurs contenus comme étant originaux.

Source : le blog officiel de Google, site de Matt Cutts

Et vous ?

Que pensez-vous de la qualité des résultats de Google ?
Avez-vous récemment constaté une amélioration ou une dégradation de la pertinence des résultats à cause des « fermes de contenus » ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Seb33300
Membre émérite https://www.developpez.com
Le 01/02/2011 à 9:46
La question est : Comment google peut il savoir quel site est à l'origine du contenu ?

Ne peut on pas déclarer un contenu comme étant l'original si ce n'est pas le cas ?
0  0