IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les bots représentent 42 % du trafic web mondial en 2024 et les deux tiers sont malveillants
Ils mènent des actions de Web scraping qui ont un impact majeur sur le e-commerce, selon une étude d'Akamai

Le , par Jade Emy

11PARTAGES

10  0 
Les bots représentent 42 % du trafic web mondial en 2024, avec une prédominance des acteurs malveillants. D’après le dernier rapport SOTI d’Akamai, les deux tiers des bots en ligne sont malveillants et mènent en priorité des actions de Web scraping, lesquels ont un impact majeur sur le e-commerce. Le rapport, intitulé « Protégez vos données et vos revenus : impact des extracteurs Web sur le e-commerce » constate que les bots représentent aujourd’hui 42 % du trafic Web global et que 65 % de ceux-ci sont malveillants.

Akamai vient de dévoiler son dernier rapport État des lieux d'Internet (SOTI) intitulé "Protégez vos données et vos revenus : impact des extracteurs Web sur le e-commerce" dédié aux menaces auxquelles les entreprises du secteur du e-commerce sont confrontées. Ce rapport constate que les bots représentent aujourd’hui 42 % du trafic Web global et que 65 % de ceux-ci sont malveillants.

Selon le rapport, les botnets créés par l’IA ont la capacité d’identifier et d'extraire des données et du contenu non structurés présents à des formats ou dans des emplacements plus ou moins cohérents. En outre, ils peuvent utiliser la veille stratégique réelle pour améliorer le processus de prise de décision en collectant, extrayant, puis traitant les données.

Les robots d'extraction Web (Web Scraping) peuvent être exploités pour générer des campagnes d'hameçonnage plus sophistiquées en capturant des images de produits, des descriptions et des informations sur les prix pour créer de fausses pages commerciales ou des sites d'hameçonnage visant à voler des identifiants ou des informations de carte de crédit. Les bots peuvent être utilisés pour faciliter les abus liés à l'ouverture de nouveaux comptes, qui, selon des recherches récentes, constituent jusqu'à 50 % des pertes liées à la fraude.

Les impacts techniques auxquels les entreprises sont confrontées en raison de l'extraction, qu’elle ait été effectuée avec des intentions malveillantes ou bénéfiques, incluent la dégradation des performances des sites Web, la pollution des métriques du site, les attaques d'informations d'identification compromises provenant de sites d'hameçonnage, l'augmentation des coûts de calcul, etc.


Protégez vos données et vos revenus : impact des extracteurs Web sur le e-commerce

Le nouveau rapport d'Akamai « État des lieux d'Internet » détaille cette fois le niveau des menaces de sécurité et commerciales auxquelles les entreprises du secteur du e-commerce sont confrontées avec la prolifération des bots effectuant du Web scraping.

Du fait de sa dépendance aux applications Web, souvent génératrices de revenus, le secteur du e-commerce a été cette année le plus touché par le trafic de bots à haut risque. Bien que certains bots soient bénéfiques pour les entreprises, les bots d'extraction Web sont le plus souvent utilisés à des fins de veille concurrentielle et d'espionnage, de surstocks, ou encore la création de sites factices.

Ces différents procédés ont de plus en plus d’impact, négatif, sur les résultats et l'expérience client. De plus, il n’existe pour l’heure pas de lois interdisant l'utilisation de bots d'extraction, et cela à mesure qu’ils deviennent de plus en plus difficiles à détecter en raison de l'essor des botnets créés par l’intelligence artificielle (IA), toutefois il existe des stratégies que les entreprises peuvent mettre en place pour les atténuer.

« Les bots continuent de présenter des défis considérables, ce qui entraîne de multiples difficultés pour les propriétaires d'applications et d'API », selon Patrick Sullivan, CTO, Security Strategy chez Akamai. « Parmi les défis du moment, on peut notamment identifier l'extraction Web, laquelle permet de voler des données Web et aussi de produire des sites d'usurpation d'identité de marque. Le paysage des extracteurs lui-même évolue avec l’émergence de nouvelles technologies, comme celle du navigateur sans interface, obligeant les entreprises à adopter une stratégie de gestion de ce type d'activité de bot plus sophistiquée que d'autres atténuations reposant sur JavaScript. »

Parmi les principaux enseignements du rapport, on distingue notamment les points suivants :

  • Les botnets créés par l’IA ont la capacité d’identifier et d'extraire des données et du contenu non structurés présents à des formats ou dans des emplacements plus ou moins cohérents. En outre, ils peuvent utiliser la veille stratégique réelle pour améliorer le processus de prise de décision en collectant, extrayant, puis traitant les données.
  • Les robots d'extraction Web (Web Scraping) peuvent être exploités pour générer des campagnes d'hameçonnage plus sophistiquées en capturant des images de produits, des descriptions et des informations sur les prix pour créer de fausses pages commerciales ou des sites d'hameçonnage visant à voler des identifiants ou des informations de carte de crédit.
  • Les bots peuvent être utilisés pour faciliter les abus liés à l'ouverture de nouveaux comptes, qui, selon des recherches récentes, constituent jusqu'à 50 % des pertes liées à la fraude.
  • Les impacts techniques auxquels les entreprises sont confrontées en raison de l'extraction, qu’elle ait été effectuée avec des intentions malveillantes ou bénéfiques, incluent la dégradation des performances des sites Web, la pollution des métriques du site, les attaques d'informations d'identification compromises provenant de sites d'hameçonnage, l'augmentation des coûts de calcul, etc.


Le rapport d'enquête « Protégez vos données et vos revenus » présente des stratégies d'atténuation contre les bots d'extraction ainsi qu’une étude de cas mettant en exergue le meilleur fonctionnement des sites Web protégés des bots, notamment sur le point de la réduction de la latence. En outre, l'étude aborde les considérations de conformité qui doivent être prises en compte l’aune de la montée de ce type d’attaques.

À propos d'Akamai

Akamai soutient et protège la vie en ligne. Les entreprises leaders du monde entier choisissent Akamai pour concevoir, diffuser et sécuriser leurs expériences digitales, et aident des milliards de personnes à vivre, travailler et jouer chaque jour. Akamai Connected Cloud, plateforme cloud massivement distribuée en bordure de l'Internet, rapproche les expériences et les applications des utilisateurs tout en éloignant les menaces.

Source : Akamai

Et vous ?

Pensez-vous que cette étude est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Akamai présente sa nouvelle plateforme Zero Trust pour renforcer la sécurité des entreprises : Akamai Guardicore utilise l'IA pour l'évaluation des vulnérabilités, la conformité et la réponse aux incidents

Les attaques d'applications et d'API dans le secteur du commerce de la région EMEA sont en hausse de 189 %, selon un rapport d'Akamai

55 % des développeurs travaillent déjà activement sur des architectures de cloud distribué, 87 % s'attendent à ce que leur utilisation du cloud distribué augmente, selon une étude d'Akamai

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 27/06/2024 à 15:42
Il y a rien de neuf, c'est généralement la première chose que découvre un webmaster quand il prends la peine d'analyser son trafic, comme par exemple déjà les moteurs de recherches aspirent ton site régulièrement, après il y a toute une tripotées de bots qui viennent scanner les failles, les mails pour le spam, les informations que tu peux avoir avec du data scraping, etc.
Certains de ces bots sont repérables, comme les moteurs de recherches, car ils s'identifient clairement, d'autres par leur IP (proxy en chine etc), d'autres tu les chopes avec un honeypot, mais tous le monde ne fait pas ça, mais ça permet aux chercheurs de sortir de genre de pourcentage au final.

Donc entre les bots malveillants, la presse en ligne gratuite merdique, et les IA qui générèrent des sites en entiers, google qui ne sait plus rechercher correctement les sites utiles et qui ne fait que t'afficher de la pub, oui le web ca devient de plus en plus de la m....
4  0 
Avatar de Jules34
Membre émérite https://www.developpez.com
Le 26/06/2024 à 11:50
Et Bill Gates promet des centrales à Sodium pour alimenter tout ça, le temps qu'on atteigne enfin le stade critique ou l'on bénéficiera tous du revenu universel

Et c'est rigolo depuis qu'on utilse ChatGPT pour des recettes de cuisines plus personne critique la consommation "monstrueuse" du réseau bitcoin
0  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/06/2024 à 11:27
42% vraiment????

De 2 choses l'une...

Soit ce chiffre relève de la farce et est une invention de ses auteurs, les bots pourraient correspondre à 2% ou à 98% du trafic web sans qu'on le sache vraiment

Soit ce chiffre est exact, ce qui veut dire que l'on est capable d'identifier les bots au milieu du trafic et que donc il n'y aurait aucun problème à les supprimer du trafic!

Je vous laisse le soin de choisir la meilleure option: Le chiffre de 42% ne correspond à rien ou est-ce que les acteurs du web se foutent royalement des intérêts de chacun (pour ne pas dire de tous, 42% de bots, cela veut 42% d'énergie dépensée pour rien, des réseaux ralentis, des utilisateurs submergés par des spams, des réseaux sociaux et autres sites comptabilisant des connexions qui n'en sont pas vraiment, etc, etc, etc...) en laissant les bots se multiplier à l'infini?
0  5