Lorsque les robots négocient, les humains sont plus susceptibles de s’engager dans des techniques trompeuses –

  • FrançaisFrançais



  • Récemment, des informaticiens de l’USC Institute of Technologies (ICT) ont entrepris d’évaluer dans quelles conditions les humains utiliseraient des tactiques de négociation trompeuses. Grâce à une série d’études, ils ont découvert que la question de savoir si les humains adopteraient une gamme de techniques trompeuses et sournoises dépendait à la fois de l’expérience de négociation préalable des humains dans la négociation et de la question de savoir si des agents virtuels étaient employés pour négocier en leur nom. Les résultats contrastent avec les études antérieures et montrent que lorsque les humains utilisent des intermédiaires sous la forme d’agents virtuels, ils se sentent plus à l’aise d’employer des techniques plus trompeuses qu’ils n’en utiliseraient normalement pour négocier pour eux-mêmes.

    L’auteur principal de l’article sur ces études, Johnathan Mell, déclare: “Nous voulons comprendre les conditions dans lesquelles les gens agissent de manière trompeuse, dans certains cas simplement en leur donnant un agent d’intelligence artificielle qui peut faire leur sale boulot à leur place.”

    De nos jours, les agents virtuels sont employés presque partout, des enchérisseurs automatisés sur des sites comme eBay aux assistants virtuels sur les téléphones intelligents. Un jour, ces agents pourraient travailler en notre nom pour négocier la vente d’une voiture, plaider pour une augmentation ou même résoudre un différend juridique.

    Mell, qui a mené la recherche au cours de ses études de doctorat en informatique à l’USC, déclare: “Savoir comment concevoir des expériences et des agents artificiels qui peuvent agir comme certains des plus sournois d’entre nous est utile pour apprendre à combattre ces techniques dans la vie réelle. . “

    Les chercheurs sont impatients de comprendre comment ces agents virtuels ou bots pourraient faire notre offre et de comprendre comment les humains se comportent lorsqu’ils déploient ces agents en leur nom.

    Gale Lucas, professeur assistant de recherche au département d’informatique de l’USC Viterbi School of Engineering et de l’USC ICT, ainsi que l’auteur correspondant de l’étude publiée dans le Journal de recherche sur l’intelligence artificielle», déclare:« Nous voulions prédire comment les gens réagiraient différemment à mesure que cette technologie deviendrait disponible et nous atteindrait plus largement ».

    L’équipe de recherche, composée de Mell, Sharon Mozgai, Jonathan Gratch et Lucas, a mené trois expériences distinctes, se concentrant sur les conditions dans lesquelles les humains opteraient pour une gamme de comportements éthiquement douteux. Ces comportements comprenaient des négociations difficiles (pressions agressives), des mensonges manifestes, la rétention d’informations, l’utilisation manipulatrice d’émotions négatives (feindre la colère), ainsi que l’établissement de relations et l’attrait par l’utilisation de la sympathie. Une partie de ces expériences impliquait des négociations avec des agents virtuels non humains et des agents virtuels de programmation comme mandataires.

    Les chercheurs ont découvert que les gens étaient prêts à s’engager dans des techniques trompeuses dans les conditions suivantes:

    • S’ils avaient plus d’expérience préalable en négociation
    • S’ils ont eu une expérience négative de la négociation (aussi peu que 10 minutes d’une expérience négative pourraient affecter leur intention d’utiliser des pratiques plus trompeuses dans les négociations futures)
    • S’ils avaient moins d’expérience en négociation, mais employaient un agent virtuel pour négocier pour eux

    Les auteurs disent: «La façon dont les humains disent qu’ils prendront des décisions et comment ils prennent réellement des décisions sont rarement alignées». Lorsque les gens ont programmé des agents virtuels pour prendre des décisions, ils ont agi de la même manière que s’ils avaient engagé un avocat en tant que représentant et, par l’intermédiaire de ce représentant virtuel, étaient plus disposés à recourir à des tactiques trompeuses.

    “Les personnes moins expérimentées peuvent ne pas être convaincues de pouvoir utiliser les techniques ou se sentir mal à l’aise, mais elles n’ont aucun problème à programmer un agent pour le faire”, explique Lucas.

    Autres résultats: lorsque les humains interagissaient avec un agent virtuel qui était juste, ils étaient plus justes, mais lorsque l’agent virtuel était plus gentil ou méchant en termes de manifestations émotionnelles, les participants ne changeaient pas leur volonté de s’engager dans des pratiques trompeuses.

    Les chercheurs ont également glané des informations sur le comportement humain en général.

    Par rapport à leur volonté d’approuver les techniques les plus trompeuses, notamment les mensonges manifestes, la rétention d’informations et l’utilisation manipulatrice des émotions négatives, “les gens n’ont vraiment aucun problème à être gentils pour obtenir ce qu’ils veulent ou à être difficiles à obtenir ce qu’ils veulent. », explique Lucas, qui suggère que ces techniques apparemment moins trompeuses sont considérées comme plus moralement acceptables par les participants.

    Le travail a des implications pour l’éthique sur l’utilisation de la technologie et pour les futurs concepteurs. Les chercheurs disent: “Si les humains, à mesure qu’ils acquièrent plus d’expérience, deviennent plus trompeurs, les concepteurs de robots pourraient expliquer cela.”

    Lucas note: «Au fur et à mesure que les gens utilisent les agents pour faire leurs enchères, nous pourrions voir que leur offre pourrait devenir un peu moins éthique.

    Mell ajoute: «Même si nous ne voulons certainement pas que les gens soient moins éthiques, nous voulons comprendre comment les gens agissent réellement, c’est pourquoi des expériences comme celles-ci sont si importantes pour créer de vrais agents artificiels semblables à ceux des humains.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée.