Le robot affiche une lueur d’empathie envers un robot partenaire –

  • FrançaisFrançais



  • Comme un couple de longue date qui peut se prédire chacun de ses mouvements, un robot Columbia Engineering a appris à prédire les actions et les objectifs futurs de son robot partenaire sur la base de quelques images vidéo initiales.

    Lorsque deux primates sont enfermés ensemble pendant une longue période, nous apprenons rapidement à prédire les actions à court terme de nos colocataires, collègues ou membres de la famille. Notre capacité à anticiper les actions des autres nous permet de vivre et de travailler plus facilement ensemble. En revanche, même les robots les plus intelligents et les plus avancés sont restés notoirement inaptes à ce type de communication sociale. Cela peut être sur le point de changer.

    L’étude, menée au Creative Machines Lab de Columbia Engineering dirigé par le professeur de génie mécanique Hod Lipson, fait partie d’un effort plus large visant à doter les robots de la capacité de comprendre et d’anticiper les objectifs d’autres robots, uniquement à partir d’observations visuelles.

    Les chercheurs ont d’abord construit un robot et l’ont placé dans un parc pour bébé d’environ 3 x 2 pieds. Ils ont programmé le robot pour qu’il cherche et se déplace vers n’importe quel cercle vert qu’il pouvait voir. Mais il y avait un hic: parfois le robot pouvait voir un cercle vert dans sa caméra et se diriger directement vers lui. Mais d’autres fois, le cercle vert serait occlus par une grande boîte en carton rouge, auquel cas le robot se déplacerait vers un cercle vert différent, ou pas du tout.

    Après avoir observé son partenaire se balader pendant deux heures, le robot d’observation a commencé à anticiper le but et le chemin de son partenaire. Le robot d’observation a finalement été en mesure de prédire l’objectif et la trajectoire de son partenaire 98 fois sur 100, dans des situations variables – sans être explicitement informé du handicap de visibilité du partenaire.

    «Nos premiers résultats sont très intéressants», déclare Boyuan Chen, auteur principal de l’étude, qui a été menée en collaboration avec Carl Vondrick, professeur adjoint d’informatique, et publiée aujourd’hui par Nature Scientific Reports. «Nos résultats commencent à montrer comment les robots peuvent voir le monde du point de vue d’un autre robot. La capacité de l’observateur à se mettre à la place de son partenaire, pour ainsi dire, et à comprendre, sans être guidé, si son partenaire pouvait ou non voir le le cercle vert de son point de vue, est peut-être une forme primitive d’empathie. “

    Lorsqu’ils ont conçu l’expérience, les chercheurs s’attendaient à ce que le robot observateur apprenne à faire des prédictions sur les actions à court terme du robot sujet. Ce à quoi les chercheurs ne s’attendaient pas, cependant, était la précision avec laquelle le robot observateur pouvait prévoir les futurs “mouvements” de son collègue avec seulement quelques secondes de vidéo comme signal.

    Les chercheurs reconnaissent que les comportements présentés par le robot dans cette étude sont bien plus simples que les comportements et les objectifs des humains. Ils croient cependant que cela pourrait être le début de doter les robots de ce que les scientifiques cognitifs appellent la «théorie de l’esprit» (ToM). Vers l’âge de trois ans, les enfants commencent à comprendre que les autres peuvent avoir des objectifs, des besoins et des perspectives différents de ceux-ci. Cela peut conduire à des activités ludiques comme le cache-cache, ainsi qu’à des manipulations plus sophistiquées comme le mensonge. Plus largement, la ToM est reconnue comme un signe distinctif clé de la cognition humaine et primate, et un facteur essentiel pour des interactions sociales complexes et adaptatives telles que la coopération, la compétition, l’empathie et la tromperie.

    De plus, les humains sont toujours meilleurs que les robots pour décrire leurs prédictions en utilisant un langage verbal. Les chercheurs ont demandé au robot d’observation de faire ses prédictions sous forme d’images, plutôt que de mots, afin d’éviter de s’empêtrer dans les défis épineux du langage humain. Pourtant, Lipson spécule, la capacité d’un robot à prédire visuellement les actions futures n’est pas unique: “Nous, les humains, pensons parfois aussi visuellement. Nous imaginons souvent l’avenir dans nos yeux, pas avec des mots.”

    Lipson reconnaît qu’il existe de nombreuses questions éthiques. La technologie rendra les robots plus résistants et plus utiles, mais lorsque les robots peuvent anticiper la façon dont les humains pensent, ils peuvent également apprendre à manipuler ces pensées.

    «Nous reconnaissons que les robots ne resteront pas longtemps des machines à suivre les instructions passives», déclare Lipson. “À l’instar d’autres formes d’IA avancées, nous espérons que les décideurs politiques pourront aider à garder ce type de technologie sous contrôle, afin que nous puissions tous en bénéficier.”

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Houssen Moshinaly

    Rédacteur web depuis 2009 et webmestre depuis 2011.

    Je m'intéresse à tous les sujets comme la politique, la culture, la géopolitique, l'économie ou la technologie. Toute information permettant d'éclairer mon esprit et donc, le vôtre, dans un monde obscur et à la dérive.

    Je suis l'auteur de plusieurs livre

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.