Brave New World : la responsabilité à l’ère des véhicules autonomes


  • FrançaisFrançais


  • Les véhicules autonomes continuent d’évoluer, entraînant de nouvelles responsabilités liées à la technologie, aux erreurs humaines et à la communication avec l’environnement des voitures.

    Par Lucy Aquino

    La réglementation des véhicules autonomes est un domaine nouveau et stimulant qui a reçu beaucoup d’attention des médias et d’attention du public ces dernières années, et pour cause. Alors que la technologie entourant les véhicules autonomes continue de s’améliorer à un rythme effarant, les régulateurs fédéraux et étatiques ont du mal à adopter une législation capable de suivre non seulement les avancées technologiques, mais également la demande pour une telle technologie.

    Les défis posés par cette technologie en plein essor concernent des domaines tels que la propriété intellectuelle, la confidentialité, la sécurité en ligne et, comme on peut s’y attendre, la responsabilité délictuelle. Pouvons-nous – mieux encore, devrions-nous – appliquer les principes actuels de responsabilité délictuelle aux véhicules à moteur exploités, en tout ou en partie, par des systèmes autonomes ? Si oui, qui devrait être tenu responsable en cas de défaillance de la technologie ou en cas d’accident ?

    Les six niveaux d’automatisation

    Afin de répondre à ces questions, il est important de comprendre que tous les véhicules autonomes n’ont pas le même niveau d’autonomie, c’est-à-dire la capacité de conduite autonome. La National Highway Traffic Safety Administration (NHTSA) classe les véhicules autonomes selon six niveaux d’automatisation possibles

    • L0 : ce niveau initial fait référence à un système de conduite entièrement non autonome – essentiellement les automobiles que nous avons grandi en conduisant – où le conducteur humain contrôle totalement le véhicule ;
    • L1 à L3 : Les niveaux intermédiaires – les seuls actuellement disponibles sur le marché grand public – font référence aux véhicules qui fournissent un certain degré d’assistance autonome, mais nécessitent toujours la supervision d’un conducteur humain. Les véhicules dotés de ces niveaux d’automatisation offrent des fonctionnalités telles que l’assistance au changement de voie, le freinage automatique et le régulateur de vitesse adaptatif, qui prétendent réduire les cas d’erreur humaine en déléguant certaines tâches de conduite à un système automatisé. Cependant, le véhicule doit toujours avoir un conducteur humain qui est toujours responsable en dernier ressort de la conduite du véhicule et doit rester prêt à prendre le relais en cas d’urgence ou de défaillance du système ;
    • L4 à L5 : les niveaux finaux font référence aux véhicules véritablement autonomes dans lesquels le système autonome est censé non seulement remplacer le conducteur humain, mais aussi fonctionner mieux qu’un conducteur humain dans chaque scénario. Bien qu’il n’y ait pas de véhicules L4 ou L5 actuellement disponibles sur le marché, leur disponibilité généralisée est une question de quand, pas si, car des entreprises telles que Tesla et Google continuent de tester des véhicules entièrement autonomes dans les grandes villes du monde entier.

    L’énigme du transfert

    Alors que les véhicules entièrement autonomes pourraient un jour être la norme, les modèles actuellement disponibles sur le marché nécessitent tous un certain degré d’interaction humaine. La nécessité pour un conducteur humain d’intervenir et de prendre le contrôle du véhicule en cas d’urgence pose une question intéressante concernant l’applicabilité des concepts bien établis de négligence délictuelle. Comme indiqué ci-dessus, tous les véhicules actuellement disponibles sur le marché nécessitent que le conducteur reste vigilant et prêt à prendre les commandes en cas d’urgence ou d’événement imprévu auquel le véhicule n’est pas conçu pour répondre. Il serait alors facile de supposer que, dans ces conditions, le conducteur humain resterait seul responsable en cas d’accident. Cependant, comme certains constructeurs automobiles l’ont appris récemment, ils peuvent également être tenus responsables s’ils conçoivent un véhicule qui ne vérifie pas si son conducteur humain est toujours attentif.1 Tesla à lui seul a fait l’objet de nombreuses poursuites judiciaires alléguant que son système manque de garanties pour empêcher les abus et surveiller correctement les conducteurs.2

    Le problème avec ce concept est que, pour la plupart, les humains peuvent créer des systèmes de sauvegarde notoirement terribles. Nous pouvons être inattentifs, facilement distraits et lents à réagir. Ainsi, lorsqu’on leur donne la possibilité de regarder un film, de jouer à un jeu ou même de dormir pendant que quelqu’un – ou quelque chose – d’autre conduit, certaines personnes peuvent perdre leur concentration et oublier qu’elles doivent faire attention à la route. Afin d’éviter toute responsabilité potentielle, les constructeurs automobiles doivent trouver un équilibre entre fournir aux conducteurs des technologies d’assistance utiles et attrayantes et s’assurer que ces mêmes conducteurs comprennent qu’ils doivent rester vigilants au volant.

    Un problème de défaut de communication

    Pour décider si les notions actuelles de responsabilité délictuelle devraient s’appliquer aux véhicules autonomes, il faut également tenir compte de la longue période de transition probable pendant laquelle les véhicules autonomes et non autonomes se partageront les routes. Une caractéristique de sécurité majeure des véhicules autonomes implique leur capacité à communiquer entre eux et avec les infrastructures environnantes, telles que les feux de circulation et les systèmes de caméras, pour prendre des décisions de conduite en commun. Mis à part la question de savoir si les véhicules autonomes de différents constructeurs pourront communiquer entre eux, il ne fait guère de doute que les véhicules autonomes et non autonomes ne pourront pas communiquer pour prendre ces décisions de conduite cruciales. Au cours de cette période de transition, les véhicules entièrement autonomes devront anticiper et répondre aux conducteurs humains et à leur propension à l’erreur humaine. Si un véhicule autonome fonctionne exactement comme prévu mais ne parvient pas à anticiper et à répondre à une erreur de la part du conducteur humain d’un autre véhicule, le constructeur automobile est-il responsable de ne pas utiliser les algorithmes d’apprentissage automatique appropriés lors du développement du véhicule autonome ? Une telle question ne trouvera probablement pas de réponse avant longtemps, mais il y a certainement des arguments à faire valoir des deux côtés de cette question.

    Conclusion

    Dans l’ensemble, les défis fondamentaux auxquels est confrontée l’introduction sûre et généralisée des véhicules autonomes vont bien au-delà de la technologie. Avec la disponibilité imminente et inévitable de véhicules capables de fonctionner sans aucune intervention humaine du conducteur, le moment est venu d’engager des conversations longues et probablement difficiles concernant la sécurité, la réglementation, la responsabilité et l’acceptabilité sociale.

    Brave New World : la responsabilité à l'ère des véhicules autonomes
    Lucy Aquino

    Luciana “Lucy” Aquino est un avocat basé à Atlanta au sein de l’équipe de litige de Swift Currie, représentant des clients dans un éventail de questions, notamment la responsabilité des locaux, les litiges en matière de construction, les litiges automobiles/camionnage et la couverture d’assurance. Elle peut être jointe à lucy.aquino@swiftcurrie.com.

    1 https://www.nytimes.com/2021/08/17/business/tesla-autopilot-accident.html

    2 https://www.nytimes.com/2021/07/05/business/tesla-autopilot-lawsuits-safety.html

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    La Rédaction

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.