Zoom, Twitter touché par des allégations de préjugés raciaux dans les algorithmes, Twitter dit qu'il y a du travail à faire

Zoom, Twitter touché par des allégations de préjugés raciaux dans les algorithmes, Twitter dit qu'il y a du travail à faire

Twitter et Zoom ont été repérés au cours du week-end pour avoir un préjugé racial dans leurs algorithmes visuels. Tout a commencé lorsque quelqu'un a remarqué que Zoom semblait enlever la tête des personnes ayant une pigmentation de la peau plus foncée lorsqu'elles utilisaient un arrière-plan virtuel, alors que cela ne faisait pas cela pour les personnes ayant une pigmentation de peau plus claire. Dans le tweet utilisé pour signaler le problème de Zoom, il a été ironiquement repéré que Twitter semble également avoir un préjugé racial lorsqu'il a recadré les vignettes pour favoriser le visage d'une personne blanche par rapport à un noir. Twitter a répondu à l'indignation qui a émergé, affirmant qu'il était clair qu'il avait plus de travail à faire.

Zoom semblait initialement avoir un problème avec ses algorithmes d'arrière-plan virtuels qui se manifestent par un biais racial. Chercheur Colin Madland posté un fil sur Twitter samedi qui a souligné le problème avec l'algorithme de détection de visage qui effacerait les visages noirs lors de l'application d'un arrière-plan virtuel sur l'application de vidéoconférence.

Gadgets 360 a contacté Zoom pour obtenir des éclaircissements sur l'algorithme et a été informé par la société qu'elle enquêtait sur le problème. «Nous avons contacté directement l'utilisateur pour enquêter sur ce problème. Nous nous engageons à fournir une plate-forme qui soit inclusive pour tous », a déclaré un porte-parole de Zoom dans un communiqué.

Dans le même fil, avec Madland publiant des photos de chaque utilisateur dans le chat, l'algorithme de recadrage des vignettes d'image de Twitter semblait favoriser Madland par rapport à son collègue noir.

Twitter Chief Design Offer Dantley Davis a répondu aux observations de Madland en en disant "C'est à 100% de notre faute. Personne ne devrait dire le contraire. Maintenant, la prochaine étape est de le réparer."

Peu de temps après, plusieurs utilisateurs de Twitter ont posté des photos sur la plateforme de microblogage pour mettre en évidence le biais apparent. Le directeur technique de Twitter, Parag Aggarwal, a également réagi à la tendance:

Un autre exemple est venu de l'ingénieur en cryptographie Tony Arcieri, qui dimanche tweeté les photos de l'ancien président américain Barack Obama et du leader de la majorité au Sénat, Mitch McConnell, pour comprendre si l'algorithme de la plateforme mettrait en évidence le premier ou le second. Arcieri a utilisé différents modèles pour mettre les photos dans les images, mais dans tous les cas, Twitter a montré McConnell au-dessus d'Obama.

Cependant, une fois que l'ingénieur a inversé les couleurs des photos, l'image d'Obama est apparue sur la vue recadrée. La productrice d'Intertheory Kim Sherrell aussi a trouvé que l'algorithme modifie la préférence une fois que l'image d'Obama est modifiée avec un sourire plus contrasté.

Certains utilisateurs ont également constaté que l'algorithme semble mettre l'accent sur des teints plus clairs, même dans le cas de dessins animés et d'animaux. Différents clients Twitter tels que Tweetdeck et Twitterrific, ainsi que les vues mobiles, d'applications et de bureau, ont montré des priorités différentes pour le recadrage d'images, certains utilisateurs c'est noté.

Porte-parole Twitter Liz Kelley a répondu aux tweets soulevant des allégations de préjugé racial contre la plate-forme et a déclaré: «Nous avons testé les préjugés avant d'envoyer le modèle et n'avons pas trouvé de preuve de préjugé racial ou de genre dans notre test, mais il est clair que nous avons plus d'analyses à faire. " Elle a ajouté: "Nous ouvrirons notre travail en source ouverte afin que d'autres puissent l'examiner et le reproduire."

En 2017, Twitter a interrompu la détection des visages pour recadrer automatiquement les images dans la chronologie des utilisateurs et déployé un algorithme de détection de saillance qui visait à se concentrer sur les régions d'image «saillantes». Ingénieur Twitter Zehan Wang tweeté que l'équipe a mené des études sur les biais avant de publier le nouvel algorithme et a constaté à ce moment-là qu'il n'y avait «aucun biais significatif entre les ethnies (ou les sexes)». Cependant, il a ajouté que la société examinerait l'étude fournie par les utilisateurs de Twitter.


L'Apple Watch SE, l'iPad de 8e génération sont-ils les produits «abordables» parfaits pour l'Inde? Nous en avons discuté sur Orbital, notre podcast technologique hebdomadaire, auquel vous pouvez vous abonner via Apple Podcasts, Google Podcasts ou RSS, télécharger l'épisode ou simplement cliquer sur le bouton de lecture ci-dessous.

No Comment

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Articles récents