Conduire dans la neige est un effort d’équipe pour les capteurs d’IA –

  • FrançaisFrançais



  • Personne n’aime conduire dans un blizzard, y compris les véhicules autonomes. Pour rendre les voitures autonomes plus sûres sur les routes enneigées, les ingénieurs examinent le problème du point de vue de la voiture.

    Un défi majeur pour les véhicules entièrement autonomes est la navigation par mauvais temps. La neige confond particulièrement les données cruciales des capteurs qui aident un véhicule à mesurer la profondeur, à trouver les obstacles et à rester du bon côté de la ligne jaune, en supposant qu’elle soit visible. Avec en moyenne plus de 200 pouces de neige chaque hiver, la péninsule de Keweenaw dans le Michigan est l’endroit idéal pour pousser la technologie des véhicules autonomes à ses limites. Dans deux articles présentés à SPIE Defence + Commercial Sensing 2021, des chercheurs de la Michigan Technological University discutent de solutions pour les scénarios de conduite enneigée qui pourraient aider à apporter des options de conduite autonome dans des villes enneigées comme Chicago, Détroit, Minneapolis et Toronto.

    Tout comme la météo parfois, l’autonomie n’est pas une appellation ensoleillée ou enneigée oui-non. Les véhicules autonomes couvrent un éventail de niveaux, des voitures déjà sur le marché avec avertissements d’angle mort ou assistance au freinage, aux véhicules qui peuvent basculer entre les modes de conduite autonome, à d’autres qui peuvent naviguer entièrement seuls. Les principaux constructeurs automobiles et universités de recherche peaufinent toujours la technologie et les algorithmes de conduite autonome. Parfois, des accidents se produisent, soit en raison d’une mauvaise appréciation de l’intelligence artificielle (IA) de la voiture, soit d’une mauvaise utilisation par un conducteur humain des fonctions de conduite autonome.

    Les humains ont aussi des capteurs : nos yeux qui scannent, notre sens de l’équilibre et du mouvement, et la puissance de traitement de notre cerveau nous aident à comprendre notre environnement. Ces intrants apparemment basiques nous permettent de conduire dans pratiquement tous les scénarios, même s’ils sont nouveaux pour nous, car le cerveau humain est doué pour généraliser de nouvelles expériences. Dans les véhicules autonomes, deux caméras montées sur des cardans scannent et perçoivent la profondeur en utilisant la vision stéréo pour imiter la vision humaine, tandis que l’équilibre et le mouvement peuvent être mesurés à l’aide d’une unité de mesure inertielle. Mais, les ordinateurs ne peuvent réagir qu’aux scénarios qu’ils ont rencontrés auparavant ou qu’ils ont été programmés pour reconnaître.

    Étant donné que les cerveaux artificiels n’existent pas encore, les algorithmes d’intelligence artificielle (IA) spécifiques à une tâche doivent prendre le volant, ce qui signifie que les véhicules autonomes doivent s’appuyer sur plusieurs capteurs. Les caméras Fisheye élargissent la vue tandis que les autres caméras agissent un peu comme l’œil humain. L’infrarouge capte les signatures thermiques. Le radar peut voir à travers le brouillard et la pluie. La détection et la télémétrie de la lumière (lidar) perce l’obscurité et tisse une tapisserie néon de fils de faisceau laser.

    “Chaque capteur a des limites et chaque capteur couvre le dos d’un autre”, a déclaré Nathir Rawashdeh, professeur adjoint d’informatique au Michigan Tech’s College of Computing et l’un des principaux chercheurs de l’étude. Il travaille à rassembler les données des capteurs grâce à un processus d’IA appelé fusion de capteurs.

    “La fusion de capteurs utilise plusieurs capteurs de différentes modalités pour comprendre une scène”, a-t-il déclaré. « Vous ne pouvez pas programmer de manière exhaustive chaque détail lorsque les entrées ont des modèles difficiles. C’est pourquoi nous avons besoin de l’IA. »

    Les collaborateurs de Rawashdeh dans le Michigan Tech incluent Nader Abu-Alrub, son doctorant en génie électrique et informatique, et Jeremy Bos, professeur adjoint de génie électrique et informatique, ainsi que des étudiants à la maîtrise et des diplômés du laboratoire de Bos: Akhil Kurup, Derek Chopp et Zach Jeffries. Bos explique que le lidar, l’infrarouge et d’autres capteurs à eux seuls sont comme le marteau d’un vieil adage. « Pour un marteau, tout ressemble à un clou », a cité Bos. “Eh bien, si vous avez un tournevis et un pistolet à riveter, alors vous avez plus d’options.”

    La plupart des capteurs autonomes et des algorithmes d’auto-conduite sont développés dans des paysages ensoleillés et clairs. Sachant que le reste du monde n’est pas comme l’Arizona ou le sud de la Californie, le laboratoire de Bos a commencé à collecter des données locales dans un véhicule autonome Michigan Tech (conduit en toute sécurité par un humain) lors de fortes chutes de neige. L’équipe de Rawashdeh, notamment Abu-Alrub, a versé plus de 1 000 images de données lidar, radar et images provenant de routes enneigées en Allemagne et en Norvège pour commencer à enseigner à leur programme d’IA à quoi ressemble la neige et comment voir au-delà.

    “Toute la neige n’est pas créée égale”, a déclaré Bos, soulignant que la variété de la neige rend la détection des capteurs un défi. Rawashdeh a ajouté que le pré-traitement des données et la garantie d’un étiquetage précis sont une étape importante pour garantir l’exactitude et la sécurité : “L’IA est comme un chef – si vous avez de bons ingrédients, il y aura un excellent repas”, a-t-il déclaré. “Donnez au réseau d’apprentissage de l’IA des données de capteur sales et vous obtiendrez un mauvais résultat.”

    Les données de mauvaise qualité sont un problème, tout comme la saleté réelle. Tout comme la saleté de la route, l’accumulation de neige sur les capteurs est un problème résoluble mais gênant. Une fois la vue dégagée, les capteurs des véhicules autonomes ne sont toujours pas toujours d’accord pour détecter les obstacles. Bos a mentionné un excellent exemple de découverte d’un cerf tout en nettoyant des données recueillies localement. Lidar a déclaré que le blob n’était rien (30% de chance d’être un obstacle), la caméra l’a vu comme un humain endormi au volant (50% de chance) et le capteur infrarouge a crié WHOA (90% sûr que c’est un cerf).

    Faire parler les capteurs et leurs évaluations des risques et apprendre les uns des autres, c’est comme la parabole indienne de trois hommes aveugles qui trouvent un éléphant : chacun touche une partie différente de l’éléphant – l’oreille, la trompe et la jambe de la créature – et vient à une conclusion différente sur le type d’animal dont il s’agit. En utilisant la fusion de capteurs, Rawashdeh et Bos veulent que des capteurs autonomes trouvent collectivement la réponse – qu’il s’agisse d’un éléphant, d’un cerf ou d’un banc de neige. Comme le dit Bos, “Plutôt que de voter strictement, en utilisant la fusion de capteurs, nous proposerons une nouvelle estimation.”

    Bien que naviguer dans une tempête de neige Keweenaw soit une solution pour les véhicules autonomes, leurs capteurs peuvent mieux se renseigner sur les intempéries et, avec des progrès tels que la fusion de capteurs, pourront un jour conduire en toute sécurité sur des routes enneigées.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.