Twitter ralentit l’algorithme de recadrage d’image après avoir détecté un biais

Posté sur:

Aéroport international de San Francisco (AFP)

Twitter a annoncé mercredi la suppression du système automatisé de recadrage d’images, qui a trouvé un biais dans la façon dont il contrôle son processus d’examen.

Le site d’information a rapporté que l’algorithme fournissait «un traitement inégal basé sur des différences démographiques» avec les Blancs et les hommes préférés par les Noirs et les femmes, et que le biais «objectif» centré sur la poitrine ou les jambes d’une femme était décrit comme une «vision masculine».

La nouvelle intervient un mois après que Twitter a annoncé le lancement d’un algorithme équitable dans le cadre d’un effort visant à réduire ses dépendances de plate-forme introduites par l’automatisation.

L’algorithme de salinité pour les images de cultures sur Twitter 2018 vise à améliorer la cohérence des tailles des photos dans la chronologie et à se concentrer sur leurs éléments les plus importants.

Ramman Chaudhary, responsable de l’ingénierie logicielle de Twitter et expert en éthique et en intelligence artificielle, a déclaré que la société avait décidé après ses recherches qu’il était souhaitable de laisser les résultats des cultures aux utilisateurs.

«Nous avons considéré les échanges entre la vitesse et la durabilité de la culture automatisée avec les risques que nous avons trouvés dans cette recherche», a-t-il déclaré dans un article de blog.

« L’une de nos décisions est que tout sur Twitter n’est pas un bon candidat pour un algorithme. Dans ce cas, comment sculpter une image est une décision prise par les gens. »

L’annonce intervient au milieu des préoccupations concernant l’amélioration des mécanismes qui pourraient fournir des résultats biaisés en raison d’un manque de données sur les minorités ou d’autres facteurs.

READ  Fiche pays du PAM pour l'Algérie, octobre 2023 - Algérie

Cette semaine, Amazon a déclaré qu’il prolongerait l’interdiction d’utiliser la technologie de reconnaissance faciale des forces de l’ordre, craignant que ses lacunes ne augmentent les préjugés raciaux.

L’initiative de Twitter appelle à «la responsabilité de nos décisions algorithmiques», dans le but «d’égalité et d’équité des résultats».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *