Le dilemme du robot face à la première loi de la robotique d'Isaac Asimov

robot-loi-robotique-isaac-asimov

Est-ce qu’un robot peut être confronté à un dilemme ?

Quels seront ses choix face à une situation de dilemme ?

 

Pour répondre à cette question, Alan Winfield, un chercheur en cybernétique au Bristol Robotics Laboratory a voulu tester les limites de la première loi de la robotique émise par l’auteur Isaac Azimov qui stipule :

Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger.

Dans l’expérience, les chercheurs ont programmés un robot pour qu’il empêche d’autres machines (qui étaient considérés comme des humains par le robot) de tomber dans un trou.

Au début, cela a marché. Dès qu’une machine s’approchait du trou, le robot se précipitait pour le repousser loin du trou. Mais cela s’est compliqué lorsque les chercheurs ont mis plusieurs machines qui allaient tomber dans le trou. Dans ces cas, le robot sauvait une personne, mais laissait tomber d’autres. Dans d’autres cas, il avait un moment d’hésitation avant de choisir celui qu’il allait sauver.

Sur 33 essais, le robot a sauvé uniquement 14 personnes, car il perdait trop de temps à réfléchir sur le choix qu’il allait faire.

Le chercheur estime que ce robot est un zombie éthique dans la mesure où il est tellement confronté au dilemme qu’il sait quoi faire, mais il ne sait pas trop comment le faire de la meilleure manière.

Au délà de l’aspect purement expérimental, ce test montre toute la difficulté de choisir pour une machine.

Par exemple, quel sera le choix d’une voiture robotisée entre sauver ses passagers ou d’éviter de blesser des piétons sur la route ?

 

Pour être honnête, le chercheur admet qu’il ne comprend pas cette hésitation éthique du robot.

Une vidéo du test :

Source

Publicités