L’outil aide à éliminer les biais de la vision par ordinateur –

  • FrançaisFrançais



  • Des chercheurs de l’Université de Princeton ont développé un outil qui identifie les biais potentiels dans des ensembles d’images utilisées pour entraîner les systèmes d’intelligence artificielle (IA). Le travail fait partie d’un effort plus large pour remédier et prévenir les préjugés qui se sont glissés dans les systèmes d’IA qui influencent tout, des services de crédit aux programmes de détermination de la peine dans les tribunaux.

    Bien que les sources de biais dans les systèmes d’IA soient variées, l’une des principales causes est les images stéréotypées contenues dans de grands ensembles d’images collectées à partir de sources en ligne que les ingénieurs utilisent pour développer la vision par ordinateur, une branche de l’IA qui permet aux ordinateurs de reconnaître les personnes, les objets et les actions. Étant donné que la base de la vision par ordinateur repose sur ces ensembles de données, les images qui reflètent les stéréotypes et les préjugés de la société peuvent involontairement influencer les modèles de vision par ordinateur.

    Pour aider à enrayer ce problème à sa source, les chercheurs du Princeton Visual AI Lab ont développé un outil open source qui découvre automatiquement les biais potentiels dans les ensembles de données visuelles. L’outil permet aux créateurs et aux utilisateurs de jeux de données de corriger les problèmes de sous-représentation ou de représentations stéréotypées avant que les collections d’images ne soient utilisées pour former des modèles de vision par ordinateur. Dans le cadre de travaux connexes, les membres du Visual AI Lab ont publié une comparaison des méthodes existantes pour prévenir les biais dans les modèles de vision par ordinateur eux-mêmes, et ont proposé une nouvelle approche plus efficace de l’atténuation des biais.

    Le premier outil, appelé REVISE (REvealing VIsual biaSEs), utilise des méthodes statistiques pour inspecter un ensemble de données à la recherche de biais potentiels ou de problèmes de sous-représentation selon trois dimensions: basée sur les objets, basée sur le genre et basée sur la géographie. Outil entièrement automatisé, REVISE s’appuie sur des travaux antérieurs qui impliquaient de filtrer et d’équilibrer les images d’un ensemble de données d’une manière qui nécessitait plus de direction de la part de l’utilisateur. L’étude a été présentée le 24 août lors de la conférence européenne virtuelle sur la vision par ordinateur.

    REVISE fait le point sur le contenu d’un ensemble de données à l’aide d’annotations et de mesures d’images existantes telles que le nombre d’objets, la cooccurrence d’objets et de personnes, et les pays d’origine des images. Parmi ces mesures, l’outil expose des modèles qui diffèrent des distributions médianes.

    Par exemple, dans l’un des ensembles de données testés, REVISE a montré que les images comprenant à la fois des personnes et des fleurs différaient entre les hommes et les femmes: les hommes apparaissaient plus souvent avec des fleurs lors de cérémonies ou de réunions, tandis que les femmes avaient tendance à apparaître dans des décors ou des peintures. (L’analyse était limitée aux annotations reflétant le sexe binaire perçu des personnes apparaissant dans les images.)

    Une fois que l’outil révèle ces types de divergences, “se pose alors la question de savoir s’il s’agit d’un fait totalement anodin, ou si quelque chose de plus profond se produit, et c’est très difficile à automatiser”, a déclaré Olga Russakovsky, professeur adjoint d’informatique et directeur enquêteur du Visual AI Lab. Russakovsky a co-écrit l’article avec l’étudiante diplômée Angelina Wang et Arvind Narayanan, professeur agrégé d’informatique.

    Par exemple, REVISE a révélé que les objets, y compris les avions, les lits et les pizzas, étaient plus susceptibles d’être volumineux dans les images les incluant qu’un objet typique dans l’un des ensembles de données. Un tel problème pourrait ne pas perpétuer les stéréotypes sociétaux, mais pourrait être problématique pour la formation des modèles de vision par ordinateur. En guise de remède, les chercheurs proposent de collecter des images d’avions qui incluent également les étiquettes montagne, désert ou ciel.

    La sous-représentation des régions du globe dans les ensembles de données de vision par ordinateur, cependant, est susceptible de conduire à des biais dans les algorithmes d’IA. Conformément aux analyses précédentes, les chercheurs ont constaté que pour les pays d’origine des images (normalisés par la population), les États-Unis et les pays européens étaient largement surreprésentés dans les ensembles de données. Au-delà de cela, REVISE a montré que pour les images d’autres parties du monde, les légendes des images n’étaient souvent pas dans la langue locale, ce qui suggère que beaucoup d’entre elles ont été capturées par des touristes et conduisent potentiellement à une vue biaisée d’un pays.

    Les chercheurs qui se concentrent sur la détection d’objets peuvent ignorer les problèmes d’équité de la vision par ordinateur, a déclaré Russakovsky. “Cependant, cette analyse géographique montre que la reconnaissance d’objets peut encore être assez biaisée et exclusive, et peut affecter différentes régions et personnes de manière inégale”, a-t-elle déclaré.

    «Les pratiques de collecte des ensembles de données en informatique n’ont pas été examinées de manière approfondie jusqu’à récemment», a déclaré la co-auteure Angelina Wang, étudiante diplômée en informatique. Elle a déclaré que les images sont pour la plupart “extraites d’Internet et que les gens ne réalisent pas toujours que leurs images sont utilisées. [in data sets]. Nous devrions collecter des images de groupes de personnes plus diversifiés, mais lorsque nous le faisons, nous devons faire attention à ce que nous obtenions les images de manière respectueuse. “

    “Les outils et les benchmarks sont une étape importante … ils nous permettent de capturer ces biais plus tôt dans le pipeline et de repenser la configuration de nos problèmes et nos hypothèses ainsi que les pratiques de collecte de données”, a déclaré Vicente Ordonez-Roman, professeur adjoint d’informatique à l’Université de Virginie qui n’a pas participé aux études. «En vision par ordinateur, il existe des défis spécifiques concernant la représentation et la propagation des stéréotypes. Des travaux tels que ceux du Princeton Visual AI Lab aident à élucider et à porter à l’attention de la communauté de la vision par ordinateur certains de ces problèmes et proposent des stratégies pour les atténuer. “

    Une étude connexe du Visual AI Lab a examiné des approches visant à empêcher les modèles de vision par ordinateur d’apprendre de fausses corrélations qui pourraient refléter des biais, tels que la surestimation d’activités comme la cuisine dans des images de femmes ou la programmation informatique dans des images d’hommes. Des indices visuels tels que le fait que les zèbres sont en noir et blanc, ou que les basketteurs portent souvent des maillots, contribuent à la précision des modèles, donc développer des modèles efficaces tout en évitant les corrélations problématiques est un défi de taille sur le terrain.

    Dans une recherche présentée en juin à la Conférence internationale virtuelle sur la vision par ordinateur et la reconnaissance de formes, l’étudiant diplômé en génie électrique Zeyu Wang et ses collègues ont comparé quatre techniques différentes pour atténuer les biais dans les modèles de vision par ordinateur.

    Ils ont constaté qu’une technique populaire connue sous le nom de formation antagoniste, ou «l’équité par la cécité», nuisait à la performance globale des modèles de reconnaissance d’image. Dans la formation contradictoire, le modèle ne peut pas prendre en compte les informations sur la variable protégée – dans l’étude, les chercheurs ont utilisé le sexe comme cas de test. Une approche différente, connue sous le nom de formation indépendante du domaine, ou «l’équité par la sensibilisation», a donné de bien meilleurs résultats dans l’analyse de l’équipe.

    «Essentiellement, cela signifie que nous allons avoir des fréquences d’activités différentes pour différents sexes, et oui, cette prédiction dépendra du sexe, donc nous allons simplement l’adopter», a déclaré Russakovsky.

    La technique décrite dans l’article atténue les biais potentiels en considérant l’attribut protégé séparément des autres indices visuels.

    «La manière dont nous abordons réellement le problème des biais est un problème plus profond, car nous pouvons bien sûr voir que c’est dans les données elles-mêmes», a déclaré Zeyu Wang. “Mais dans le monde réel, les humains peuvent toujours porter de bons jugements tout en étant conscients de nos préjugés” – et les modèles de vision par ordinateur peuvent être configurés pour fonctionner de la même manière, a-t-il déclaré.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée.