Un nouveau module de traitement de données rend les réseaux de neurones profonds plus intelligents –

  • FrançaisFrançais



  • Les chercheurs en intelligence artificielle de la North Carolina State University ont amélioré les performances des réseaux de neurones profonds en combinant la normalisation des fonctionnalités et les modules d’attention des fonctionnalités dans un seul module qu’ils appellent normalisation attentive (AN). Le module hybride améliore considérablement la précision du système, tout en utilisant une puissance de calcul supplémentaire négligeable.

    «La normalisation des fonctionnalités est un élément crucial de la formation des réseaux de neurones profonds, et l’attention des fonctionnalités est tout aussi importante pour aider les réseaux à mettre en évidence les fonctionnalités tirées des données brutes qui sont les plus importantes pour accomplir une tâche donnée», déclare Tianfu Wu, auteur correspondant d’un article sur le travail et professeur adjoint de génie électrique et informatique à NC State. “Mais ils ont pour la plupart été traités séparément. Nous avons constaté que leur combinaison les rendait plus efficaces et efficients.”

    Pour tester leur module AN, les chercheurs l’ont branché sur quatre des architectures de réseaux neuronaux les plus utilisées: ResNets, DenseNets, MobileNetsV2 et AOGNets. Ils ont ensuite testé les réseaux par rapport à deux benchmarks standard de l’industrie: le benchmark de classification ImageNet-1000 et le benchmark de détection d’objets et de segmentation d’instances MS-COCO 2017.

    «Nous avons constaté que la technologie AN améliorait les performances des quatre architectures sur les deux benchmarks», déclare Wu. «Par exemple, la précision du top 1 dans ImageNet-1000 s’est améliorée de 0,5% à 2,7%. Et la précision de la précision moyenne (AP) a augmenté jusqu’à 1,8% pour la boîte englobante et 2,2% pour le masque sémantique dans MS-COCO.

    «Un autre avantage de l’AN est qu’il facilite un meilleur transfert d’apprentissage entre différents domaines», explique Wu. “Par exemple, de la classification d’images dans ImageNet à la détection d’objets et à la segmentation sémantique dans MS-COCO. Ceci est illustré par l’amélioration des performances du benchmark MS-COCO, qui a été obtenue en affinant les réseaux de neurones profonds prétrainés ImageNet dans MS- COCO, un flux de travail commun dans la vision par ordinateur de pointe.

    “Nous avons publié le code source et espérons que notre AN conduira à une meilleure conception intégrative des réseaux de neurones profonds.”

    Source de l’histoire:

    Matériaux fourni par Université d’État de Caroline du Nord. Remarque: le contenu peut être modifié pour le style et la longueur.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée.