L'entreprise a présenté une palette de dix teintes de peau qui permettra une meilleure représentativité des résultats de recherche, notamment sur Google Images. « Aujourd'hui, nous avons lancé l'échelle Monk Skin Tone (MST) en partenariat avec le professeur et sociologue de Harvard, le Dr Ellis Monk. L'échelle MST, développée par le Dr Monk, est une échelle à 10 nuances conçue pour mieux prendre en compte l'éventail des couleurs de peau dans notre société. Nous intégrerons l'échelle MST dans divers produits Google au cours des prochains mois et nous la rendons publique afin que chacun puisse l'utiliser pour la recherche et le développement de produits », a déclaré Molly McHugh-Johnson, Staff Writer at Google.L'échelle MST constitue une étape importante dans l'effort collectif visant à améliorer l'intégration de la couleur de peau dans la technologie. Pour Google, elle aidera à progresser dans l’engagement en faveur de l'équité de l'image et de l'amélioration de la représentation dans les produits Google. En mettant l'échelle MST à la disposition de tous, Google espère que d'autres personnes pourront en faire autant.
La prise en compte de l'équité en matière de couleur de peau dans la technologie constitue un défi intéressant pour la recherche, car il ne s'agit pas seulement d'une question technique, mais aussi d'une question sociale.
Pour progresser, il faut l'expertise combinée d'un large éventail de personnes : des universitaires en sciences sociales qui ont passé des années à étudier les inégalités sociales et la stratification de la couleur de la peau dans le cadre de leurs recherches, aux utilisateurs de produits et de technologies, qui apportent les nuances et les commentaires nécessaires issus de leurs expériences vécues, en passant par les éthiciens et les militants des droits civiques, qui guident les cadres d'application afin de garantir que nous préservons et honorons les nuances sociales.
Les équipes de Google contribuent à cet ensemble de travaux depuis des années maintenant. Voici un aperçu plus approfondi de la façon dont les équipes de Google ont réfléchi et travaillé sur les efforts de représentation de la couleur de la peau, en particulier en ce qui concerne l'échelle MST et ce qui pourrait suivre.
« Des inégalités persistantes existent à l'échelle mondiale en raison des préjugés ou de la discrimination à l'encontre des personnes ayant une couleur de peau plus foncée, également connus sous le nom de colorisme », explique le Dr Courtney Heldreth, psychologue sociale et chercheuse en expérience utilisateur (UX) au sein du département Responsible AI Human-Centered Technology UX (RAI-HCT UX) de Google, qui fait partie de Google Research. « La littérature académique démontre que la couleur de la peau joue un rôle important dans la façon dont les gens sont traités dans une grande variété de résultats, y compris la santé, la richesse, le bien-être, et plus encore. »
L'apprentissage automatique, un type d'IA, est à la base de nombreux produits que nous utilisons tous les jours. Les caméras utilisent l'apprentissage automatique pour des raisons de sécurité, pour déverrouiller un téléphone ou enregistrer la présence d'une personne à la porte. L'apprentissage automatique permet de classer les photos en fonction de visages similaires ou d'ajuster la luminosité d'une image.
Pour bien faire, les ingénieurs et les chercheurs ont besoin de divers ensembles de données d'entraînement pour former des modèles et pour tester de manière approfondie les modèles résultants sur un large éventail d'images. Il est important de noter que, pour que les ensembles de données utilisés pour développer des technologies liées à la compréhension des personnes soient plus inclusifs, Google a besoin d'une échelle qui représente un large éventail de tons de peau.
« Si vous dites : j'ai testé mon modèle d'équité pour m'assurer qu'il fonctionne bien pour les tons de peau foncés, mais que vous utilisez une échelle qui ne représente pas la plupart des personnes ayant ces tons de peau, vous ne savez pas à quel point il fonctionne réellement », explique Xango Eyeé, un chef de produit travaillant sur l'IA responsable.
« Si elle n'est pas développée avec intention, la mesure du teint de peau que nous utilisons pour comprendre si nos modèles sont justes et représentatifs peut affecter la façon dont les produits sont vécus par les utilisateurs. En aval, ces décisions peuvent avoir les plus grands impacts sur les personnes les plus vulnérables aux traitements injustes, les personnes à la peau plus foncée », explique le Dr Heldreth.
Eyeé et le Dr Heldreth sont tous deux des membres essentiels des efforts de recherche de Google visant à intégrer une plus grande équité en matière de couleur de peau dans le développement de l'IA, un groupe qui comprend un ensemble interdisciplinaire de chefs de produit, de chercheurs et d'ingénieurs spécialisés dans la vision par ordinateur et la psychologie sociale. L'équipe collabore également avec les équipes chargées de l'équité en matière d'image au sein de Google, afin de renforcer la représentation dans des produits tels que les appareils photo, les photos et les emojis.
« Nous adoptons une approche centrée sur l'humain pour comprendre comment l'IA peut influencer et aider les gens dans le monde entier, explique le Dr Heldreth, en nous concentrant sur l'amélioration de l'inclusivité dans l'IA, pour faire en sorte que la technologie reflète et donne du pouvoir aux communautés globalement et culturellement diverses, en particulier...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Quel est votre avis sur le sujet ?