L’apprentissage en profondeur rend la navigation visuelle relative au terrain plus pratique –

Sans GPS, les systèmes autonomes se perdent facilement. Désormais, un nouvel algorithme développé à Caltech permet aux systèmes autonomes de reconnaître où ils se trouvent simplement en regardant le terrain qui les entoure – et pour la première fois, la technologie fonctionne indépendamment des changements saisonniers sur ce terrain.
Des détails sur le processus ont été publiés le 23 juin dans la revue Science Robotics, publiée par l’American Association for the Advancement of Science (AAAS).
Le processus général, connu sous le nom de navigation visuelle relative au terrain (VTRN), a été développé pour la première fois dans les années 1960. En comparant le terrain à proximité à des images satellites à haute résolution, les systèmes autonomes peuvent se localiser.
Le problème est que, pour que cela fonctionne, la génération actuelle de VTRN nécessite que le terrain qu’il regarde corresponde étroitement aux images de sa base de données. Tout ce qui altère ou obscurcit le terrain, comme la couverture neigeuse ou les feuilles tombées, fait que les images ne correspondent pas et encrasse le système. Ainsi, à moins qu’il n’existe une base de données des images du paysage dans toutes les conditions imaginables, les systèmes VTRN peuvent être facilement confondus.
Pour surmonter ce défi, une équipe du laboratoire de Soon-Jo Chung, professeur Bren d’aérospatiale et de contrôle et de systèmes dynamiques et chercheur au JPL, que Caltech gère pour la NASA, s’est tournée vers l’apprentissage en profondeur et l’intelligence artificielle (IA) pour supprimer les saisons contenu qui entrave les systèmes VTRN actuels.
“La règle de base est que les deux images – celle du satellite et celle du véhicule autonome – doivent avoir un contenu identique pour que les techniques actuelles fonctionnent. Les différences qu’elles peuvent gérer concernent ce qui peut être accompli avec un Filtre Instagram qui change les teintes d’une image”, explique Anthony Fragoso (MS ’14, PhD ’18), conférencier et chercheur, et auteur principal de l’article de Science Robotics. “Dans les systèmes réels, cependant, les choses changent radicalement en fonction de la saison car les images ne contiennent plus les mêmes objets et ne peuvent pas être directement comparées.”
Le processus – développé par Chung et Fragoso en collaboration avec l’étudiant diplômé Connor Lee (BS ’17, MS ’19) et l’étudiant de premier cycle Austin McCoy – utilise ce que l’on appelle “l’apprentissage auto-supervisé”. Alors que la plupart des stratégies de vision par ordinateur reposent sur des annotateurs humains qui organisent soigneusement de grands ensembles de données pour apprendre à un algorithme à reconnaître ce qu’il voit, celui-ci laisse plutôt l’algorithme s’auto-apprendre. L’IA recherche des motifs dans les images en dévoilant des détails et des caractéristiques qui seraient probablement manqués par les humains.
Compléter la génération actuelle de VTRN avec le nouveau système permet une localisation plus précise : dans une expérience, les chercheurs ont tenté de localiser des images de feuillage d’été par rapport à des images de feuilles d’hiver à l’aide d’une technique VTRN basée sur la corrélation. Ils ont découvert que les performances n’étaient pas meilleures qu’un tirage au sort, 50 % des tentatives ayant entraîné des échecs de navigation. En revanche, l’insertion du nouvel algorithme dans le VTRN a bien mieux fonctionné : 92 % des tentatives ont été correctement appariées, et les 8 % restants ont pu être identifiés à l’avance comme problématiques, puis facilement gérés à l’aide d’autres techniques de navigation établies.
“Les ordinateurs peuvent trouver des motifs obscurs que nos yeux ne peuvent pas voir et peuvent détecter même la plus petite tendance”, explique Lee. VTRN risquait de devenir une technologie infaisable dans des environnements communs mais difficiles, dit-il. “Nous avons sauvé des décennies de travail pour résoudre ce problème.”
Au-delà de l’utilité pour les drones autonomes sur Terre, le système a également des applications pour les missions spatiales. Le système d’entrée, de descente et d’atterrissage (EDL) de la mission de rover Perseverance Mars 2020 du JPL, par exemple, a utilisé VTRN pour la première fois sur la planète rouge pour atterrir sur le cratère Jezero, un site qui était auparavant considéré comme trop dangereux pour un coffre-fort. entrée. Avec des rovers tels que Perseverance, “une certaine quantité de conduite autonome est nécessaire”, explique Chung, “car les transmissions mettent sept minutes pour voyager entre la Terre et Mars, et il n’y a pas de GPS sur Mars”. L’équipe a considéré les régions polaires martiennes qui ont également des changements saisonniers intenses, des conditions similaires à celles de la Terre, et le nouveau système pourrait permettre une navigation améliorée pour soutenir les objectifs scientifiques, y compris la recherche d’eau.
Ensuite, Fragoso, Lee et Chung étendront la technologie pour tenir compte également des changements météorologiques : brouillard, pluie, neige, etc. En cas de succès, leurs travaux pourraient contribuer à améliorer les systèmes de navigation pour les voitures sans conducteur.
Ce projet a été financé par la société Boeing et la National Science Foundation. McCoy a participé au programme de bourses de recherche d’été de premier cycle de Caltech.