Pourquoi l’algorithme de recadrage d’image de Twitter semble avoir un biais blanc

Tenter une expérience horrible…
Quel sera le choix de l’algorithme Twitter: Mitch McConnell ou Barack Obama? pic.twitter.com/bR1GRyCkia
– Tony «Abolish (Pol) ICE» Arcieri 🦀 (@bascule) 19 septembre 2020
Cela arrive aussi avec Michael Jackson …… pic.twitter.com/foUMcExS2P
– Carter (@gnomestale) 19 septembre 2020
Je me demande si Twitter fait aussi cela aux personnages de fiction.
Lenny Carl pic.twitter.com/fmJMWkkYEf
– Jordan Simonovski (@_jsimonovski) 20 septembre 2020
Je l’ai essayé avec des chiens. Voyons voir. pic.twitter.com/xktmrNPtid
– – MARQUE – (@MarkEMarkAU) 20 septembre 2020
OMG! https://t.co/5L9z473Hff pic.twitter.com/vVH6YO6GRv
– BG 🔥 #SouthernCollective (@joBeeGeorgeous) 20 septembre 2020
Cependant, certaines personnes ont noté qu’il pourrait y avoir d’autres facteurs que la couleur de la peau. Et ceux qui ont essayé différentes méthodes ont trouvé des résultats incohérents.
L’algorithme de sélection de vignettes de Twitter préfère-t-il systématiquement les visages blancs aux noirs?
J’ai fait une expérience. Ce n’est pas concluant, mais dans mon expérience avec des images de Barack Obama, Raphael Warnock, George W. Bush et Donald Trump, le modèle hypothétique n’apparaît pas. pic.twitter.com/2ddcPR5CPi
– Jeremy B. Merrill (@jeremybmerrill) 20 septembre 2020
essai pic.twitter.com/xqHcOpz3Yg
– garry (@garrynewman) 20 septembre 2020
Plus de preuves: pic.twitter.com/CeCEOTsSJ8
– Lui Gajria (@himgajria) 20 septembre 2020
(Mise à jour des résultats)
Rapport blanc / noir: 40:52 (92 images)
Code utilisé: https://t.co/qkd9WpTxbK
Annotation finale: https://t.co/OviLl80Eye
(J’ai créé @cropping_bias pour exécuter le terminer l’expérience. Attendre @Twitter pour approuver les informations d’identification du développeur) pic.twitter.com/qN0APvUY5f– Vinay Prabhu (@vinayprabhu) 20 septembre 2020
Le chef de la conception de Twitter (CDO), Dantley Davis, a déclaré que le choix du recadrage prend parfois en compte la luminosité de l’arrière-plan.
Voici un autre exemple de ce que j’ai expérimenté. Ce n’est pas un test scientifique car c’est un exemple isolé, mais il met en évidence certaines variables que nous devons examiner. Les deux hommes ont maintenant les mêmes costumes et j’ai couvert leurs mains. Nous enquêtons toujours sur le NN. pic.twitter.com/06BhFgDkyA
– Dantley 🔥✊🏾💙 (@dantley) 20 septembre 2020
Dans un fil de discussion, Binaca Kastl, un développeur allemand, a expliqué que l’algorithme de Twitter pourrait recadrer l’image en fonction de saillance – un point ou une partie importante d’une image que vous êtes susceptible de regarder en premier lorsque vous la voyez.
L’algorithme Twitters Crop est probablement une saillance assez simple. Nous verrons… pic.twitter.com/q4R0R8h3vh
– Bianca Kastl (@bkastl) 20 septembre 2020
Sa théorie est soutenue par le billet de blog 2018 de Twitter qui a expliqué son réseau de neurones conçu pour le recadrage d’image. Le message note qu’avant, la société avait pris en compte la détection faciale pour recadrer les images. Cependant, cette approche ne fonctionnait pas pour les images qui n’avaient pas de visage. Le réseau social est donc passé à un algorithme basé sur la saillance.
[Read: Are EVs too expensive? Here are 5 common myths, debunked]
Même si l’algorithme de Twitter n’est pas “ raciste ”, suffisamment de personnes ont publié des exemples montrant l’algorithme semble biaisé vers des tons de peau plus clairs et les résultats sont problématiques.. L’entreprise doit absolument approfondir son algorithme pour comprendre le biais de son réseau neuronal. Anima Anandkumar, directeur de la recherche sur l’IA chez Nvidia, a souligné que l’algorithme de saillance pourrait être formé en utilisant le suivi oculaire de participants masculins hétéros, ce qui introduirait plus de biais dans l’algorithme.
Enregistrer des hommes hétérosexuels où leurs yeux tournent lorsqu’ils regardent des photos féminines codifie l’objectivation et la sexualisation des femmes dans les médias sociaux @Twitter Personne ne demande quels yeux sont suivis pour enregistrer la saillance. #ai #bias https://t.co/coXwngSjiW
– Professeur Anima Anandkumar (@AnimaAnandkumar) 20 septembre 2020
La porte-parole de Twitter, Liz Kelly, a tweeté que l’entreprise avait testé le modèle et n’avait trouvé aucun biais. Elle a ajouté que la société ouvrira ses travaux à des tiers afin qu’ils puissent l’examiner et le reproduire. Il est possible que Twitter ait ignoré certains facteurs lors des tests, et l’open-source de l’étude pourrait les aider à trouver ces angles morts.
merci à tous ceux qui ont soulevé cette question. nous avons testé les préjugés avant d’envoyer le modèle et n’avons pas trouvé de preuves de préjugés raciaux ou sexistes lors de nos tests, mais il est clair que nous avons plus d’analyses à faire. nous ouvrirons notre travail à la source afin que les autres puissent l’examiner et le reproduire. https://t.co/E6sZV3xboH
– liz kelley (@lizkelley) 20 septembre 2020
Le directeur de la technologie (CTO) de la société, Parag Agarwal, a déclaré que le modèle nécessitait des améliorations continues et que l’équipe était impatiente d’apprendre de cette expérience.
C’est une question très importante. Pour y remédier, nous avons analysé notre modèle lors de son expédition, mais nous avons besoin d’une amélioration continue.
J’adore ce test public, ouvert et rigoureux – et je suis impatient d’en tirer des leçons. https://t.co/E8Y71qSLXa
– Parag Agrawal (@paraga) 20 septembre 2020
Le biais de peau claire dans les algorithmes est bien documenté dans des domaines allant de soins de santé à forces de l’ordre. Les grandes entreprises comme Twitter doivent donc travailler en permanence sur leurs systèmes pour s’en débarrasser. De plus, il doit démarrer un dialogue ouvert avec la communauté IA pour comprendre ses angles morts.
Vous êtes donc intéressé par l’IA? ensuite rejoignez notre événement en ligne, TNW2020, où vous entendrez comment l’intelligence artificielle transforme les industries et les entreprises.
Publié le 21 septembre 2020 – 11:17 UTC