Le rôle de la voix informatique dans l’avenir de l’interaction homme-machine basée sur la parole —

  • FrançaisFrançais



  • De nos jours, nos interactions avec les appareils et services vocaux continuent d’augmenter. Dans cette optique, des chercheurs de l’Institut de technologie de Tokyo et de RIKEN, au Japon, ont effectué une méta-synthèse pour comprendre comment nous percevons et interagissons avec la voix (et le corps) de diverses machines. Leurs découvertes ont généré des informations sur les préférences humaines et peuvent être utilisées par les ingénieurs et les concepteurs pour développer de futures technologies vocales.

    En tant qu’êtres humains, nous communiquons principalement vocalement et oralement. Nous transmettons non seulement des informations linguistiques, mais aussi les complexités de nos états émotionnels et de nos personnalités. Les aspects de notre voix tels que le ton, le rythme et la hauteur sont essentiels à la façon dont nous sommes perçus. En d’autres termes, la façon dont nous disons les choses compte.

    Avec les progrès technologiques et l’introduction de robots sociaux, d’agents conversationnels et d’assistants vocaux dans nos vies, nous élargissons nos interactions pour inclure des agents informatiques, des interfaces et des environnements. La recherche sur ces technologies peut être trouvée dans les domaines de l’interaction homme-agent (HAI), de l’interaction homme-robot (HRI), de l’interaction homme-machine (HCI) et de la communication homme-machine (HMC), selon le type de technologie. en cours d’étude. De nombreuses études ont analysé l’impact de la voix informatique sur la perception et l’interaction des utilisateurs. Cependant, ces études sont réparties sur différents types de technologies et groupes d’utilisateurs et se concentrent sur différents aspects de la voix.

    À cet égard, un groupe de chercheurs du Tokyo Institute of Technology (Tokyo Tech), Japon, du RIKEN Center for Advanced Intelligence Project (AIP), Japon, et de gDial Inc., Canada, ont maintenant compilé les résultats de plusieurs études dans ces domaines avec l’intention de fournir un cadre pouvant guider la conception et la recherche futures sur la voix informatique. Comme l’explique la chercheuse principale, la professeure agrégée Katie Seaborn de Tokyo Tech (chercheuse invitée et ancienne chercheuse postdoctorale au RIKEN AIP), « les assistants vocaux, les haut-parleurs intelligents, les véhicules qui peuvent nous parler et les robots sociaux sont déjà là. Nous devons savoir comment pour concevoir ces technologies pour qu’elles fonctionnent avec nous, vivent avec nous et correspondent à nos besoins et désirs. Nous devons également savoir comment elles ont influencé nos attitudes et nos comportements, en particulier de manière subtile et invisible. “

    L’enquête de l’équipe a pris en compte les articles de revues à comité de lecture et les articles de conférence basés sur des actes, où l’accent était mis sur la perception des utilisateurs de la voix des agents. Les matériaux sources comprenaient une grande variété de types et de technologies d’agents, d’interfaces et d’environnements, la majorité étant des voix de synthèse “sans corps”, des agents informatiques et des robots sociaux. La plupart des réponses des utilisateurs documentées provenaient d’étudiants universitaires et d’adultes. À partir de ces articles, les chercheurs ont pu observer et cartographier des modèles et tirer des conclusions concernant les perceptions de la voix des agents dans divers contextes d’interaction.

    Les résultats ont montré que les utilisateurs anthropomorphisaient les agents avec lesquels ils interagissaient et préféraient les interactions avec des agents correspondant à leur personnalité et à leur style de parole. Il y avait une préférence pour les voix humaines par rapport aux voix synthétiques. L’inclusion de remplissages vocaux tels que l’utilisation de pauses et de termes comme « je veux dire… » et « um » a amélioré l’interaction. En général, l’enquête a révélé que les gens préféraient des voix humaines, joyeuses et empathiques avec des tons plus aigus. Cependant, ces préférences n’étaient pas statiques; par exemple, la préférence des utilisateurs pour le genre de la voix a changé au fil du temps, passant de voix masculines à des voix plus féminines. Sur la base de ces résultats, les chercheurs ont pu formuler un cadre de haut niveau pour classer différents types d’interactions entre diverses technologies informatiques.

    Les chercheurs ont également examiné l’effet du corps, ou de la morphologie et du facteur de forme, de l’agent, qui pourrait prendre la forme d’un personnage virtuel ou physique, d’un affichage ou d’une interface, voire d’un objet ou d’un environnement. Ils ont constaté que les utilisateurs avaient tendance à mieux percevoir les agents lorsque les agents étaient incarnés et lorsque la voix « correspondait » au corps de l’agent.

    Le domaine de l’interaction homme-machine, en particulier celui de l’interaction vocale, est en plein essor et continue d’évoluer presque quotidiennement. En tant que tel, l’enquête de l’équipe fournit un point de départ essentiel pour l’étude et la création de technologies nouvelles et existantes dans l’interaction homme-agent basée sur la voix (vHAI). “Le programme de recherche qui a émergé de ce travail devrait guider la manière dont les agents, interfaces, systèmes, espaces et expériences basés sur la voix sont développés et étudiés dans les années à venir”, conclut le professeur Seaborn, résumant l’importance de leurs découvertes. .

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.