Pourquoi l’algorithme de recadrage d’image de Twitter semble avoir un biais blanc

  • FrançaisFrançais



  • L’algorithme de Twitter pour recadrer automatiquement les images jointes aux tweets ne se concentre souvent pas sur le contenu important qu’ils contiennent. Un problème, bien sûr, mais cela semble mineur en surface. Cependant, au cours du week-end, les chercheurs ont découvert que l’algorithme de recadrage pouvait avoir un problème plus grave: le biais blanc.

    Plusieurs utilisateurs ont publié de nombreuses photos pour montrer que dans une image comportant des personnes de couleurs différentes, Twitter choisit de montrer les personnes à la peau plus claire après avoir recadré ces images pour les adapter à ses paramètres d’affichage sur son site et les intégrer. Certains d’entre eux ont même essayé de reproduire des résultats avec des personnages fictifs et des chiens.

    Si vous appuyez sur ces images, vous verrez une version non recadrée de l’image qui comprend plus de détails tels qu’une autre personne ou un personnage. Ce qui est étrange, c’est que même si les utilisateurs inversaient l’ordre d’apparition des personnes à la peau foncée et à la peau claire, les résultats étaient les mêmes.

    Cependant, certaines personnes ont noté qu’il pourrait y avoir d’autres facteurs que la couleur de la peau. Et ceux qui ont essayé différentes méthodes ont trouvé des résultats incohérents.

    Le chef de la conception de Twitter (CDO), Dantley Davis, a déclaré que le choix du recadrage prend parfois en compte la luminosité de l’arrière-plan.

    Dans un fil de discussion, Binaca Kastl, un développeur allemand, a expliqué que l’algorithme de Twitter pourrait recadrer l’image en fonction de saillance – un point ou une partie importante d’une image que vous êtes susceptible de regarder en premier lorsque vous la voyez.

    Sa théorie est soutenue par le billet de blog 2018 de Twitter qui a expliqué son réseau de neurones conçu pour le recadrage d’image. Le message note qu’avant, la société avait pris en compte la détection faciale pour recadrer les images. Cependant, cette approche ne fonctionnait pas pour les images qui n’avaient pas de visage. Le réseau social est donc passé à un algorithme basé sur la saillance.

    [Read: Are EVs too expensive? Here are 5 common myths, debunked]

    Même si l’algorithme de Twitter n’est pas “ raciste ”, suffisamment de personnes ont publié des exemples montrant l’algorithme semble biaisé vers des tons de peau plus clairs et les résultats sont problématiques.. L’entreprise doit absolument approfondir son algorithme pour comprendre le biais de son réseau neuronal. Anima Anandkumar, directeur de la recherche sur l’IA chez Nvidia, a souligné que l’algorithme de saillance pourrait être formé en utilisant le suivi oculaire de participants masculins hétéros, ce qui introduirait plus de biais dans l’algorithme.

    La porte-parole de Twitter, Liz Kelly, a tweeté que l’entreprise avait testé le modèle et n’avait trouvé aucun biais. Elle a ajouté que la société ouvrira ses travaux à des tiers afin qu’ils puissent l’examiner et le reproduire. Il est possible que Twitter ait ignoré certains facteurs lors des tests, et l’open-source de l’étude pourrait les aider à trouver ces angles morts.

    Le directeur de la technologie (CTO) de la société, Parag Agarwal, a déclaré que le modèle nécessitait des améliorations continues et que l’équipe était impatiente d’apprendre de cette expérience.

    Le biais de peau claire dans les algorithmes est bien documenté dans des domaines allant de soins de santé à forces de l’ordre. Les grandes entreprises comme Twitter doivent donc travailler en permanence sur leurs systèmes pour s’en débarrasser. De plus, il doit démarrer un dialogue ouvert avec la communauté IA pour comprendre ses angles morts.

    Vous êtes donc intéressé par l’IA? ensuite rejoignez notre événement en ligne, TNW2020, où vous entendrez comment l’intelligence artificielle transforme les industries et les entreprises.

    Publié le 21 septembre 2020 – 11:17 UTC

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée.