Mapper les émotions sur le comportement robotique —

Premièrement, il faut de l’habileté pour piloter des pièces d’équipement souvent coûteuses en douceur et sans s’écraser. Et une fois que vous maîtrisez le vol, il y a des angles de caméra, des vitesses de panoramique, des trajectoires et des trajectoires de vol à planifier.
Avec tous les capteurs et la puissance de traitement à bord d’un drone et intégrés dans sa caméra, il doit y avoir un meilleur moyen de capturer la photo parfaite.
“Parfois, vous voulez juste dire au drone de faire une vidéo passionnante”, a déclaré Rogerio Bonatti, un doctorat. candidat à l’Institut de robotique de l’Université Carnegie Mellon.
Bonatti faisait partie d’une équipe de la CMU, de l’Université de Sao Paulo et de Facebook AI Research qui a développé un modèle permettant à un drone de filmer une vidéo en fonction d’une émotion souhaitée ou d’une réaction du spectateur. Le drone utilise des angles de caméra, des vitesses et des trajectoires de vol pour générer une vidéo qui peut être excitante, calme, agréable ou éprouvante pour les nerfs, selon ce que le cinéaste lui raconte.
L’équipe a présenté son article sur les travaux lors de la Conférence internationale de 2021 sur la robotique et l’automatisation ce mois-ci.
“Nous apprenons à mapper la sémantique, comme un mot ou une émotion, au mouvement de la caméra”, a déclaré Bonatti.
Mais avant “Lights! Camera! Action!” les chercheurs avaient besoin de centaines de vidéos et de milliers de téléspectateurs pour capturer des données sur ce qui fait qu’une vidéo évoque une certaine émotion ou un certain sentiment. Bonatti et l’équipe ont collecté quelques centaines de vidéos diverses. Quelques milliers de téléspectateurs ont ensuite regardé 12 paires de vidéos et leur ont attribué des notes en fonction de ce que les vidéos leur faisaient ressentir.
Les chercheurs ont ensuite utilisé les données pour former un modèle qui a dirigé le drone pour imiter la cinématographie correspondant à une émotion particulière. Si des plans serrés et rapides créaient de l’excitation, le drone utiliserait ces éléments pour créer une vidéo passionnante lorsque l’utilisateur le demandait. Le drone pouvait également créer des vidéos calmes, révélatrices, intéressantes, nerveuses et agréables, parmi d’autres émotions et leurs combinaisons, comme une vidéo intéressante et calme.
“J’ai été surpris que cela fonctionne”, a déclaré Bonatti. “Nous essayions d’apprendre quelque chose d’incroyablement subjectif, et j’ai été surpris que nous ayons obtenu des données de bonne qualité.”
L’équipe a testé son modèle en créant des exemples de vidéos, comme une scène de poursuite ou quelqu’un qui dribble un ballon de football, et a demandé aux téléspectateurs ce qu’ils ressentaient. Bonatti a déclaré que non seulement l’équipe a créé des vidéos destinées à être excitantes ou apaisantes qui se sentaient réellement de cette façon, mais qu’elles ont également atteint différents degrés de ces émotions.
Le travail de l’équipe vise à améliorer l’interface entre les personnes et les caméras, qu’il s’agisse d’aider les cinéastes amateurs avec la cinématographie de drones ou de fournir des instructions à l’écran sur un smartphone pour capturer la photo parfaite.
“Cela ouvre cette porte à de nombreuses autres applications, même en dehors du tournage ou de la photographie”, a déclaré Bonatti. “Nous avons conçu un modèle qui mappe les émotions au comportement du robot.”
Source de l’histoire :
Matériaux fourni par L’université de Carnegie Mellon. Original écrit par Aaron Aupperlee. Remarque : Le contenu peut être modifié pour le style et la longueur.