Des chercheurs soulignent le besoin d’éducation du public sur l’impact des algorithmes –

Dans une nouvelle série d’expériences, les algorithmes d’intelligence artificielle (IA) ont pu influencer les préférences des gens pour des candidats politiques fictifs ou des partenaires romantiques potentiels, selon que les recommandations étaient explicites ou secrètes. Ujué Agudo et Helena Matute de l’Universidad de Deusto à Bilbao, en Espagne, présentent ces résultats dans la revue en libre accès PLOS ONE le 21 avril 2021.
De Facebook aux résultats de recherche Google, de nombreuses personnes rencontrent quotidiennement des algorithmes d’IA. Les entreprises privées mènent des recherches approfondies sur les données de leurs utilisateurs, générant des informations sur le comportement humain qui ne sont pas accessibles au public. La recherche universitaire en sciences sociales est à la traîne par rapport à la recherche privée, et les connaissances du public sur la façon dont les algorithmes d’IA pourraient influencer les décisions des gens font défaut.
Pour apporter un nouvel éclairage, Agudo et Matute ont mené une série d’expériences qui ont testé l’influence des algorithmes d’IA dans différents contextes. Ils ont recruté des participants pour interagir avec des algorithmes qui présentaient des photos de candidats politiques fictifs ou de candidats de rencontres en ligne, et ont demandé aux participants d’indiquer pour qui ils voteraient ou pour qui un message. Les algorithmes faisaient la promotion de certains candidats par rapport à d’autres, soit explicitement (par exemple, «90% de compatibilité»), soit secrètement, par exemple en montrant leurs photos plus souvent que d’autres.
Dans l’ensemble, les expériences ont montré que les algorithmes avaient une influence significative sur les décisions des participants concernant le vote ou le message. Pour les décisions politiques, la manipulation explicite a considérablement influencé les décisions, tandis que la manipulation secrète n’était pas efficace. L’effet inverse a été observé pour les décisions de datation.
Les chercheurs pensent que ces résultats pourraient refléter la préférence des gens pour des conseils explicites humains lorsqu’il s’agit de questions subjectives telles que les rencontres, tandis que les gens pourraient préférer des conseils algorithmiques sur des décisions politiques rationnelles.
À la lumière de leurs conclusions, les auteurs expriment leur soutien aux initiatives visant à renforcer la fiabilité de l’IA, telles que les directives d’éthique de la Commission européenne pour une IA digne de confiance et le programme d’IA explicable (XAI) de la DARPA. Néanmoins, ils préviennent que davantage de recherches accessibles au public sont nécessaires pour comprendre la vulnérabilité humaine aux algorithmes.
Pendant ce temps, les chercheurs appellent à des efforts pour éduquer le public sur les risques d’une confiance aveugle dans les recommandations des algorithmes. Ils soulignent également la nécessité de discussions sur la propriété des données qui alimentent ces algorithmes.
Les auteurs ajoutent: «Si un algorithme fictif et simpliste comme le nôtre peut atteindre un tel niveau de persuasion sans établir de profils réellement personnalisés des participants (et en utilisant les mêmes photographies dans tous les cas), un algorithme plus sophistiqué comme ceux avec lesquels les gens interagissent dans leur vie quotidienne devraient certainement pouvoir exercer une influence beaucoup plus forte. “
Source de l’histoire:
Matériel fourni par PLOS. Remarque: le contenu peut être modifié pour le style et la longueur.