L'entreprise a présenté une palette de dix teintes de peau qui permettra une meilleure représentativité des résultats de recherche, notamment sur Google Images. « Aujourd'hui, nous avons lancé l'échelle Monk Skin Tone (MST) en partenariat avec le professeur et sociologue de Harvard, le Dr Ellis Monk. L'échelle MST, développée par le Dr Monk, est une échelle à 10 nuances conçue pour mieux prendre en compte l'éventail des couleurs de peau dans notre société. Nous intégrerons l'échelle MST dans divers produits Google au cours des prochains mois et nous la rendons publique afin que chacun puisse l'utiliser pour la recherche et le développement de produits », a déclaré Molly McHugh-Johnson, Staff Writer at Google.
L'échelle MST constitue une étape importante dans l'effort collectif visant à améliorer l'intégration de la couleur de peau dans la technologie. Pour Google, elle aidera à progresser dans l’engagement en faveur de l'équité de l'image et de l'amélioration de la représentation dans les produits Google. En mettant l'échelle MST à la disposition de tous, Google espère que d'autres personnes pourront en faire autant.
La prise en compte de l'équité en matière de couleur de peau dans la technologie constitue un défi intéressant pour la recherche, car il ne s'agit pas seulement d'une question technique, mais aussi d'une question sociale.
Pour progresser, il faut l'expertise combinée d'un large éventail de personnes : des universitaires en sciences sociales qui ont passé des années à étudier les inégalités sociales et la stratification de la couleur de la peau dans le cadre de leurs recherches, aux utilisateurs de produits et de technologies, qui apportent les nuances et les commentaires nécessaires issus de leurs expériences vécues, en passant par les éthiciens et les militants des droits civiques, qui guident les cadres d'application afin de garantir que nous préservons et honorons les nuances sociales.
Les équipes de Google contribuent à cet ensemble de travaux depuis des années maintenant. Voici un aperçu plus approfondi de la façon dont les équipes de Google ont réfléchi et travaillé sur les efforts de représentation de la couleur de la peau, en particulier en ce qui concerne l'échelle MST et ce qui pourrait suivre.
« Des inégalités persistantes existent à l'échelle mondiale en raison des préjugés ou de la discrimination à l'encontre des personnes ayant une couleur de peau plus foncée, également connus sous le nom de colorisme », explique le Dr Courtney Heldreth, psychologue sociale et chercheuse en expérience utilisateur (UX) au sein du département Responsible AI Human-Centered Technology UX (RAI-HCT UX) de Google, qui fait partie de Google Research. « La littérature académique démontre que la couleur de la peau joue un rôle important dans la façon dont les gens sont traités dans une grande variété de résultats, y compris la santé, la richesse, le bien-être, et plus encore. »
L'apprentissage automatique, un type d'IA, est à la base de nombreux produits que nous utilisons tous les jours. Les caméras utilisent l'apprentissage automatique pour des raisons de sécurité, pour déverrouiller un téléphone ou enregistrer la présence d'une personne à la porte. L'apprentissage automatique permet de classer les photos en fonction de visages similaires ou d'ajuster la luminosité d'une image.
Pour bien faire, les ingénieurs et les chercheurs ont besoin de divers ensembles de données d'entraînement pour former des modèles et pour tester de manière approfondie les modèles résultants sur un large éventail d'images. Il est important de noter que, pour que les ensembles de données utilisés pour développer des technologies liées à la compréhension des personnes soient plus inclusifs, Google a besoin d'une échelle qui représente un large éventail de tons de peau.
« Si vous dites : j'ai testé mon modèle d'équité pour m'assurer qu'il fonctionne bien pour les tons de peau foncés, mais que vous utilisez une échelle qui ne représente pas la plupart des personnes ayant ces tons de peau, vous ne savez pas à quel point il fonctionne réellement », explique Xango Eyeé, un chef de produit travaillant sur l'IA responsable.
« Si elle n'est pas développée avec intention, la mesure du teint de peau que nous utilisons pour comprendre si nos modèles sont justes et représentatifs peut affecter la façon dont les produits sont vécus par les utilisateurs. En aval, ces décisions peuvent avoir les plus grands impacts sur les personnes les plus vulnérables aux traitements injustes, les personnes à la peau plus foncée », explique le Dr Heldreth.
Eyeé et le Dr Heldreth sont tous deux des membres essentiels des efforts de recherche de Google visant à intégrer une plus grande équité en matière de couleur de peau dans le développement de l'IA, un groupe qui comprend un ensemble interdisciplinaire de chefs de produit, de chercheurs et d'ingénieurs spécialisés dans la vision par ordinateur et la psychologie sociale. L'équipe collabore également avec les équipes chargées de l'équité en matière d'image au sein de Google, afin de renforcer la représentation dans des produits tels que les appareils photo, les photos et les emojis.
« Nous adoptons une approche centrée sur l'humain pour comprendre comment l'IA peut influencer et aider les gens dans le monde entier, explique le Dr Heldreth, en nous concentrant sur l'amélioration de l'inclusivité dans l'IA, pour faire en sorte que la technologie reflète et donne du pouvoir aux communautés globalement et culturellement diverses, en particulier celles qui sont historiquement marginalisées et mal desservies. » Une échelle de teinte de peau plus inclusive est un élément central de cet effort.
L'équipe fonctionne avec un objectif directeur : Continuer à améliorer la technologie afin qu'elle fonctionne bien pour un plus grand nombre de personnes. Pour ce faire, deux tâches majeures ont été accomplies : « La première consistait à déterminer ce qui était déjà construit et pourquoi cela ne fonctionnait pas, explique Eyeé. Et la seconde a été de déterminer ce que nous devions construire à la place. »
Une approche socio-technique
« Le teint de la peau est un élément qui modifie les propriétés physiques des images et qui affecte les expériences vécues par les gens, et ces deux éléments peuvent avoir un impact sur les performances d'un élément technologique », explique le Dr Susanna Ricco. Le Dr Ricco, ingénieur logiciel au sein de l'équipe Perception de Google Research, dirige un groupe spécialisé dans la recherche de nouvelles méthodes pour s'assurer que les systèmes de vision par ordinateur de Google fonctionnent bien pour un plus grand nombre d'utilisateurs, quels que soient leurs antécédents ou leur apparence.
« Pour s'assurer que cette technologie fonctionne pour toutes les couleurs de peau, nous devons la tester et l'améliorer intentionnellement sur une gamme diversifiée. Pour ce faire, nous avons besoin d'une échelle qui ne laisse pas de côté les couleurs de peau et qui ne soit pas trop générale », explique-t-elle.
« Il y a l'aspect physique des choses, à savoir la façon dont un capteur réagit à la couleur de la peau d'une personne, explique le Dr Ricco. Ensuite, il y a l'aspect social des choses : Nous savons qu'il existe une corrélation entre la couleur de la peau et les expériences de vie, et nous voulons donc nous assurer que nous examinons l'équité de ce point de vue également. En fin de compte, ce qui compte, c'est de savoir si cela fonctionne pour moi ? - et pas seulement moi, la personne qui crée cette technologie, mais moi, c'est-à-dire toute personne qui y est confrontée. »
« Développer une échelle pour cela n'est pas seulement un problème d'IA ou de technologie, mais un problème socio-technique, ajoute le Dr Heldreth. Il est important que nous comprenions comment l'inégalité de la couleur de la peau peut se manifester dans la technologie que nous utilisons et, ce qui est important, que nous fassions de notre mieux pour éviter de reproduire le colorisme qui existe. L'équité est contextuelle et vécue de manière unique par chaque individu, il est donc important de centrer ce problème sur les personnes qui seront finalement affectées par les choix que nous faisons. Par conséquent, pour bien faire les choses, nous devons adopter une approche centrée sur l'humain, car il s'agit d'un problème humain. »
L'échelle de teintes de peau
Le Dr Monk a entrepris ces recherches en partie pour s'appuyer sur l'échelle de teinte de la peau la plus utilisée, l'échelle de Fitzpatrick. Créée en 1975 et composée de six grandes nuances, elle devait servir de point de départ à une catégorisation médicale du type de peau. L'industrie technologique l'a largement adoptée et appliquée aux teintes de peau, et elle est devenue la norme. C'est ce que la plupart des systèmes d'intelligence artificielle utilisent pour mesurer le teint de la peau. En comparaison, l'échelle MST est composée de 10 nuances, un nombre choisi pour ne pas être trop limitatif, mais aussi pas trop complexe. Il ne s'agit pas seulement de cette valeur numérique précise du teint de la peau. Il s'agit de donner aux gens quelque chose dans lequel ils peuvent se reconnaître.
Ensemble, l'équipe et le Dr Monk ont interrogé des milliers d'adultes aux États-Unis pour savoir si les gens se sentaient mieux représentés par l'échelle MST par rapport à d'autres échelles qui ont été utilisées dans les secteurs de l'apprentissage automatique et de la beauté. « Dans l'ensemble, les gens se sentaient mieux représentés par l'échelle MST que par l'échelle Fitzpatrick », déclare Eyeé, et cela était particulièrement vrai pour les groupes démographiques moins représentés.
« Ce que vous recherchez, c'est ce moment subjectif où les gens peuvent voir leur couleur de peau sur l'échelle, explique le Dr Heldreth. Voir les résultats de notre recherche démontrer qu'il existe d'autres mesures du teint de la peau où davantage de personnes se voient mieux représentées nous a donné l'impression de faire des pas dans la bonne direction, que nous pouvions vraiment faire la différence. »
Bien sûr, 10 points ne sont pas aussi complets que les échelles qui ont 16, 40 ou 110 nuances. Et pour de nombreux cas d'utilisation, comme le maquillage, plus est mieux. Ce qui était passionnant dans les résultats de l'enquête de l'échelle MST, c'est que l'équipe a constaté que, même avec 10 nuances, les participants ont estimé que l'échelle était aussi représentative que les échelles de l'industrie de la beauté avec une plus grande variété.
« Ils ont estimé que l'échelle MST était tout aussi inclusive, même si elle ne comportait que 10 points », explique Eyeé. Une échelle de 10 points peut également être utilisée lors de l'annotation des données, alors que l'évaluation des images de teint de peau à l'aide d'une échelle de 40 points serait une tâche presque impossible à réaliser de manière fiable par les évaluateurs.
Ce qui est particulièrement intéressant dans ce travail, c'est qu'il continue de souligner l'importance d'une approche sociotechnique pour créer des outils et des produits plus équitables. Les tons de la peau sont continus et peuvent être définis et catégorisés de différentes manières, la plus simple étant de choisir des valeurs RVB équidistantes sur une échelle allant du brun clair au brun foncé.
Mais une approche aussi technique ne tient pas compte de la nuance de la façon dont les différentes communautés ont été historiquement affectées par le colorisme. Une échelle efficace pour mesurer et réduire les expériences incohérentes pour un plus grand nombre de personnes doit refléter de manière adéquate un large éventail de teintes de peau qui représentent une diversité de communautés. C'est là que l'expertise et la recherche du Dr Monk s'avèrent particulièrement précieuses.
L'un des premiers domaines dans lesquels cette technologie sera utilisée est celui des produits de Google basés sur l'image. Jusqu'à présent, Google s'est largement appuyé sur l'échelle de Fitzpatrick pour l'IA des photos. L'échelle MST est désormais intégrée à des produits tels que Google Photos et Image Search, et sera étendue encore plus largement dans les mois à venir.
Source : Google
Et vous ?
Quel est votre avis sur le sujet ?
Voir aussi :
« Google a fermé mon compte pour avoir partagé des archives historiques qu'ils ont qualifiées "d'activité terroriste" », un éditeur indique qu'il risque de perdre des années de recherches
Google veut à nouveau travailler avec le Pentagone, malgré les inquiétudes des employés. L'entreprise aurait proposé d'être un fournisseur de cloud militaire
Google dévoile Logica, un nouveau langage de programmation logique open source, qui compile SQL et peut fonctionner sur Google BigQuery
Google est poursuivi en justice pour avoir collecté secrètement des données aux dépens des utilisateurs Android, par le biais de transmissions cachées et non approuvées vers ses serveurs
Google va adapter son moteur de recherche à la couleur de peau des internautes
Google va adapter son moteur de recherche à la couleur de peau des internautes
Le , par Bruno
Une erreur dans cette actualité ? Signalez-nous-la !