Le traitement de la lumière améliore la détection robotique, selon une étude –

  • FrançaisFrançais



  • Une équipe de chercheurs de l’armée a découvert comment le cerveau humain traite la lumière vive et contrastée, ce qui, selon eux, est essentiel pour améliorer la détection robotique et permettre aux agents autonomes de faire équipe avec les humains.

    Pour permettre le développement de l’autonomie, une priorité absolue de l’armée, la détection automatique doit être résiliente dans les environnements changeants, ont déclaré les chercheurs.

    “Lorsque nous développons des algorithmes de vision industrielle, les images du monde réel sont généralement compressées dans une plage plus étroite, comme le fait une caméra de téléphone portable, dans un processus appelé mappage de tonalité”, a déclaré Andre Harrison, chercheur au US Army Combat Capabilities Development Command. Laboratoire. “Cela peut contribuer à la fragilité des algorithmes de vision industrielle car ils sont basés sur des images artificielles qui ne correspondent pas tout à fait aux modèles que nous voyons dans le monde réel.”

    En développant un nouveau système avec une capacité d’affichage de 100 000 à 1, l’équipe a découvert les calculs du cerveau, dans des conditions plus réelles, afin de pouvoir intégrer la résilience biologique dans les capteurs, a déclaré Harrison.

    Les algorithmes de vision actuels sont basés sur des études sur l’homme et l’animal avec des moniteurs d’ordinateur, qui ont une gamme limitée de luminance d’environ 100 à 1, le rapport entre les pixels les plus lumineux et les plus sombres. Dans le monde réel, cette variation pourrait être un rapport de 100 000 à 1, une condition appelée plage dynamique élevée ou HDR.

    “Les changements et les variations importantes de lumière peuvent défier les systèmes de l’armée – les drones volant sous un couvert forestier pourraient être confondus par les changements de réflectance lorsque le vent souffle à travers les feuilles, ou les véhicules autonomes conduisant sur un terrain accidenté pourraient ne pas reconnaître les nids-de-poule ou d’autres obstacles en raison des conditions d’éclairage. sont légèrement différents de ceux sur lesquels leurs algorithmes de vision ont été formés », a déclaré le Dr Chou Po Hung, chercheur de l’armée.

    L’équipe de recherche a cherché à comprendre comment le cerveau prend automatiquement l’entrée de 100 000 à 1 du monde réel et la comprime dans une plage plus étroite, ce qui permet aux humains d’interpréter la forme. L’équipe a étudié le traitement visuel précoce sous HDR, en examinant l’interaction de fonctionnalités simples telles que la luminance HDR et les bords, afin de découvrir les mécanismes cérébraux sous-jacents.

    “Le cerveau a plus de 30 zones visuelles, et nous n’avons encore qu’une compréhension rudimentaire de la façon dont ces zones transforment l’image de l’œil en une compréhension de la forme 3D”, a déclaré Hung. «Nos résultats avec les études de luminance HDR, basées sur le comportement humain et les enregistrements du cuir chevelu, montrent à quel point nous savons peu de choses sur la façon de combler le fossé entre les environnements de laboratoire et les environnements réels. Mais ces résultats nous sortent de cette boîte, montrant que nos hypothèses précédentes sur les moniteurs d’ordinateur standard ont une capacité limitée à se généraliser au monde réel, et elles révèlent des principes qui peuvent guider notre modélisation vers les mécanismes corrects. “

    le Journal de vision a publié les résultats de recherche de l’équipe, L’assombrissement brusque sous une luminance à plage dynamique élevée (HDR) invoque la facilitation pour les cibles à contraste élevé et le regroupement par similarité de luminance.

    Les chercheurs ont déclaré que la découverte de la façon dont les bords de lumière et de contraste interagissent dans la représentation visuelle du cerveau aidera à améliorer l’efficacité des algorithmes pour reconstruire le véritable monde 3D sous la luminance du monde réel, en corrigeant les ambiguïtés qui sont inévitables lors de l’estimation de la forme 3D à partir d’informations 2D.

    «Au cours de millions d’années d’évolution, nos cerveaux ont développé des raccourcis efficaces pour reconstruire la 3D à partir d’informations 2D», a déclaré Hung. “C’est un problème vieux de plusieurs décennies qui continue de défier les scientifiques de la vision industrielle, même avec les progrès récents de l’IA.”

    En plus de la vision de l’autonomie, cette découverte sera également utile pour développer d’autres appareils compatibles avec l’IA, tels que le radar et la compréhension de la parole à distance, qui dépendent de la détection sur de larges plages dynamiques.

    Avec leurs résultats, les chercheurs travaillent avec des partenaires universitaires pour développer des modèles de calcul, en particulier avec des neurones à pointes, qui peuvent présenter des avantages à la fois pour le calcul HDR et pour un traitement de la vision plus économe en énergie – deux considérations importantes pour les drones de faible puissance.

    “La question de la plage dynamique n’est pas seulement un problème de détection”, a déclaré Hung. «Il peut également s’agir d’un problème plus général dans le calcul du cerveau car les neurones individuels ont des dizaines de milliers d’entrées. Comment créer des algorithmes et des architectures capables d’écouter les bonnes entrées dans différents contextes? Nous espérons qu’en travaillant sur ce problème à au niveau sensoriel, nous pouvons confirmer que nous sommes sur la bonne voie, afin de pouvoir disposer des bons outils lorsque nous construisons des IA plus complexes. “

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée.