Améliorer la vision par ordinateur pour l’IA —

  • FrançaisFrançais



  • Des chercheurs de l’UTSA, de l’Université de Floride centrale (UCF), de l’Air Force Research Laboratory (AFRL) et de SRI International ont développé une nouvelle méthode qui améliore la façon dont l’intelligence artificielle apprend à voir.

    Dirigée par Sumit Jha, professeur au département d’informatique de l’UTSA, l’équipe a changé l’approche conventionnelle utilisée pour expliquer les décisions d’apprentissage automatique qui repose sur une seule injection de bruit dans la couche d’entrée d’un réseau de neurones.

    L’équipe montre que l’ajout de bruit – également connu sous le nom de pixellisation – le long de plusieurs couches d’un réseau fournit une représentation plus robuste d’une image reconnue par l’IA et crée des explications plus solides pour les décisions de l’IA. Ce travail aide au développement de ce que l’on a appelé “l’IA explicable” qui cherche à permettre des applications à haute assurance de l’IA telles que l’imagerie médicale et la conduite autonome.

    “Il s’agit d’injecter du bruit dans chaque couche”, a déclaré Jha. “Le réseau est maintenant obligé d’apprendre une représentation plus robuste de l’entrée dans toutes ses couches internes. Si chaque couche subit plus de perturbations à chaque entraînement, la représentation de l’image sera plus robuste et vous ne verrez pas l’IA échouer simplement car vous modifiez quelques pixels de l’image d’entrée.”

    La vision par ordinateur – la capacité de reconnaître des images – a de nombreuses applications commerciales. La vision par ordinateur peut mieux identifier les domaines préoccupants dans le foie et le cerveau des patients atteints de cancer. Ce type d’apprentissage automatique peut également être utilisé dans de nombreuses autres industries. Les fabricants peuvent l’utiliser pour détecter les taux de défection, les drones peuvent l’utiliser pour détecter les fuites de pipelines et les agriculteurs ont commencé à l’utiliser pour détecter les premiers signes de maladie des cultures afin d’améliorer leurs rendements.

    Grâce à l’apprentissage en profondeur, un ordinateur est formé pour exécuter des comportements, tels que la reconnaissance de la parole, l’identification d’images ou la réalisation de prédictions. Au lieu d’organiser les données pour exécuter des équations d’ensemble, l’apprentissage en profondeur fonctionne avec des paramètres de base sur un ensemble de données et forme l’ordinateur à apprendre par lui-même en reconnaissant des modèles à l’aide de nombreuses couches de traitement.

    Le travail de l’équipe, dirigé par Jha, est une avancée majeure par rapport aux travaux antérieurs qu’il a menés dans ce domaine. Dans un article de 2019 présenté lors de l’atelier AI Safety co-localisé avec la Conférence internationale conjointe sur l’intelligence artificielle (IJCAI) de cette année-là, Jha, ses étudiants et collègues du Oak Ridge National Laboratory ont démontré comment les mauvaises conditions dans la nature peuvent conduire à un réseau neuronal dangereux. performance. Un système de vision par ordinateur a été invité à reconnaître une fourgonnette sur une route et l’a fait correctement. Son équipe a ensuite ajouté une petite quantité de brouillard et a posé à nouveau la même requête au réseau: l’IA a identifié la fourgonnette comme une fontaine. En conséquence, leur article était le meilleur candidat pour l’article.

    Dans la plupart des modèles qui reposent sur des équations différentielles ordinaires neuronales (ODE), une machine est entraînée avec une entrée via un réseau, puis se propage à travers les couches cachées pour créer une réponse dans la couche de sortie. Cette équipe de chercheurs de l’UTSA, de l’UCF, de l’AFRL et du SRI utilise une approche plus dynamique connue sous le nom d’équations différentielles stochastiques (SDE). Exploiter la connexion entre les systèmes dynamiques pour montrer que les SDE neuronaux conduisent à des attributions moins bruyantes, visuellement plus nettes et quantitativement robustes que celles calculées à l’aide des ODE neuronales.

    L’approche SDE apprend non seulement à partir d’une image mais à partir d’un ensemble d’images proches en raison de l’injection du bruit dans plusieurs couches du réseau de neurones. Au fur et à mesure que plus de bruit est injecté, la machine apprendra des approches évolutives et trouvera de meilleures façons de faire des explications ou des attributions simplement parce que le modèle créé au départ est basé sur l’évolution des caractéristiques et/ou des conditions de l’image. Il s’agit d’une amélioration par rapport à plusieurs autres approches d’attribution, notamment les cartes de saillance et les gradients intégrés.

    La nouvelle recherche de Jha est décrite dans l’article “On Smoother Attributions using Neural Stochastic Differential Equations”. Parmi les autres contributeurs à cette nouvelle approche figurent Richard Ewetz de l’UCF, Alvaro Velazquez de l’AFRL et Sumit Jha du SRI. Le laboratoire est financé par la Defense Advanced Research Projects Agency, l’Office of Naval Research et la National Science Foundation. Leurs recherches seront présentées à l’IJCAI 2021, une conférence avec un taux d’acceptation d’environ 14% pour les soumissions. Les anciens présentateurs à cette conférence très sélective ont inclus Facebook et Google.

    “Je suis ravi de partager la fantastique nouvelle que notre article sur l’IA explicable vient d’être accepté à l’IJCAI”, a ajouté Jha. « C’est une grande opportunité pour UTSA de faire partie de la conversation mondiale sur la façon dont une machine voit. »

    Source de l’histoire:

    Matériaux fourni par Université du Texas à San Antonio. Original écrit par Milady Nazir. Remarque : Le contenu peut être modifié pour le style et la longueur.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.