Supprimer numériquement les nuages ​​des images aériennes à l’aide de l’apprentissage automatique –

  • FrançaisFrançais



  • Des scientifiques de la Division de l’énergie durable et de l’ingénierie environnementale de l’Université d’Osaka ont utilisé une technique d’apprentissage automatique établie appelée réseaux contradictoires génératifs pour supprimer numériquement les nuages ​​des images aériennes. En utilisant les données résultantes comme textures pour les modèles 3D, des ensembles de données plus précis de masques d’image de construction peuvent être générés automatiquement. En confrontant deux réseaux d’intelligence artificielle, l’équipe a pu améliorer la qualité des données sans avoir besoin d’images préalablement étiquetées. Ce travail peut aider à automatiser les travaux de vision par ordinateur essentiels au génie civil.

    L’apprentissage automatique est une méthode puissante pour accomplir des tâches d’intelligence artificielle, telles que le remplissage des informations manquantes. Une application populaire consiste à réparer des images obscurcies, par exemple, lorsque des images aériennes de bâtiments sont bloquées par des nuages. Bien que cela puisse être fait à la main, cela prend beaucoup de temps et même les algorithmes d’apprentissage automatique actuellement disponibles nécessitent de nombreuses images d’entraînement pour fonctionner. Ainsi, l’amélioration de la représentation des bâtiments dans des modèles virtuels 3D à l’aide de photographies aériennes nécessite des étapes supplémentaires.

    Aujourd’hui, des chercheurs de l’Université d’Osaka ont amélioré la précision des ensembles de données générés automatiquement en appliquant la méthode d’apprentissage automatique existante appelée réseaux antagonistes génératifs (GAN). L’idée des GAN est d’opposer deux algorithmes différents. L’un est le « réseau génératif », qui propose des images reconstruites sans nuages. Le “réseau discriminant” lui fait concurrence, qui utilise un réseau de neurones convolutifs pour tenter de faire la différence entre les images réparées numériquement et les images réelles sans nuages. Au fil du temps, les deux réseaux s’améliorent de plus en plus dans leurs tâches respectives, conduisant à des images très réalistes avec les nuages ​​​​effacés numériquement. “En entraînant le réseau génératif à “tromper” le réseau discriminant en lui faisant croire qu’une image est réelle, nous obtenons des images reconstruites qui sont plus cohérentes avec elles-mêmes”, explique le premier auteur Kazunosuke Ikeno.

    L’équipe a utilisé des modèles virtuels 3D avec des photographies d’un ensemble de données open source en entrée. Cela a permis la génération automatique de « masques » numériques qui recouvraient les bâtiments reconstruits sur les nuages. “Cette méthode permet de détecter des bâtiments dans des zones sans données d’entraînement étiquetées”, explique l’auteur principal Tomohiro Fukuda. Le modèle entraîné pourrait détecter des bâtiments avec une valeur « intersection sur union » de 0,651, qui mesure la précision avec laquelle la zone reconstruite correspond à la zone réelle. Cette méthode peut être étendue à l’amélioration de la qualité d’autres ensembles de données dans lesquels certaines zones sont obscurcies, telles que les images médicales.

    Source de l’histoire :

    Matériaux fourni par Université d’Osaka. Remarque : Le contenu peut être modifié pour le style et la longueur.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.