Un meilleur Internet –

  • FrançaisFrançais



  • Polarisation, théories du complot, fausses nouvelles: ce que les gens voient sur Internet est largement déterminé par les algorithmes opaques de quelques entreprises seulement. C’est une évolution inquiétante pour les sociétés démocratiques. Mais les environnements en ligne pourraient être conçus de manière à promouvoir l’autonomie et la transparence, renforçant ainsi le potentiel positif d’Internet. Une équipe de chercheurs de l’Institut Max Planck pour le développement humain de Berlin, de l’Université de Bristol et de la Harvard Law School a abordé ce débat du point de vue des sciences du comportement et proposé des interventions capables de promouvoir un Internet plus démocratique. Leurs résultats ont été publiés dans Comportement humain de la nature.

    Vous parcourez votre fil YouTube, Facebook ou Twitter lorsqu’une vidéo apparaît: un rapport sur des accords politiques secrets, des conspirations médiatiques ou de fausses études scientifiques. Tout semble étayé par des faits. La vidéo a des centaines de milliers de clics et semble gagner du terrain dans le monde entier. Et de nombreux téléspectateurs semblent être d’accord avec cela, après l’avoir remercié. Mais qu’est-ce que tout cela signifie exactement? Cela rend-il la vidéo crédible? Combien de téléspectateurs ont regardé la vidéo jusqu’à la fin; combien sont restés à mi-chemin? Et pourquoi la vidéo est-elle apparue dans votre flux en premier lieu? La plate-forme en ligne connaît de nombreuses réponses, mais elle ne partage pas ces informations. Et aucun autre indice n’est fourni qui pourrait vous aider à évaluer le contenu, la qualité ou la crédibilité de la vidéo.

    Selon le rapport 2019 sur l’actualité numérique du Reuters Institute, plus de la moitié (55%) des internautes dans le monde utilisent désormais les réseaux sociaux ou les moteurs de recherche pour se tenir au courant des actualités. En d’autres termes, l’opinion publique est largement façonnée par le contenu en ligne, qui est à son tour organisé par des algorithmes. «L’objectif est de satisfaire les utilisateurs le plus longtemps possible afin qu’ils restent sur la plate-forme. Ceci est réalisé en offrant des divertissements et en créant une sensation de bien-être – ce qui explique probablement pourquoi de nombreuses plates-formes n’ont pas de boutons« Je n’aime pas ». qui permettent aux utilisateurs de voter contre le contenu. Le sentiment véhiculé est le suivant: vous avez raison. Cela peut être inoffensif lorsque nous partageons du contenu privé, comme des photos de vacances, mais cela déforme l’image lorsque ce qui se propage est des opinions radicales et des contre-vérités. ” dit le co-auteur Stephan Lewandowsky, professeur de psychologie cognitive à l’Université de Bristol.

    Un autre problème est que les algorithmes de flux d’actualités ne montrent aux utilisateurs que du contenu basé sur leur comportement en ligne antérieur – avec lequel ils sont susceptibles d’être d’accord. D’autres points de vue ont tendance à ne pas être montrés du tout. Cela crée des réseaux d’utilisateurs partageant les mêmes idées, qui renforcent les opinions partagées et créent l’illusion d’un large soutien, même si une opinion n’est en fait pas largement partagée. Mais comment les utilisateurs peuvent-ils distinguer les fausses nouvelles des faits? Et comment les environnements en ligne doivent-ils être conçus pour soutenir ces efforts? «Les interventions que nous proposons visent à permettre aux utilisateurs individuels de prendre des décisions éclairées et autonomes dans des environnements en ligne – idéalement, sans avoir à compter sur des vérificateurs de faits indépendants. L’architecture des environnements en ligne influence le comportement des utilisateurs. Pour changer cet environnement pour le mieux , nous devons comprendre le comportement humain et en tenir compte dans les choix de conception », déclare Philipp Lorenz-Spreen, auteur principal de l’étude et chercheur à l’Institut Max Planck pour le développement humain.

    L’équipe de recherche a identifié un certain nombre de façons d’aider les utilisateurs à évaluer la qualité du contenu Internet et à comprendre les mécanismes derrière les algorithmes – sans restreindre les libertés au cœur de la philosophie originale d’Internet. Ces possibilités sont techniquement réalisables mais jusqu’à présent largement inexploitées. L’équipe de recherche a développé des recommandations spécifiques pour autonomiser les individus en ligne, en s’appuyant sur deux approches des sciences du comportement: le coup de coude et le boosting.

    Le Nudging vise à orienter le comportement des gens en mettant en évidence des informations importantes sans imposer de règles ou d’interdictions. Boosting vise à améliorer la compétence décisionnelle des personnes, leur permettant de naviguer dans les situations de manière autonome et de prendre de meilleures décisions. Selon les chercheurs, il est important d’adopter une approche à plusieurs volets pour toucher le plus de personnes possible. Le Nudging pourrait être utilisé, par exemple, pour indiquer si le contenu répond à certains critères de qualité, comme s’il provient de sources fiables. Cela inciterait à la fois les utilisateurs à vérifier minutieusement le contenu et à créer une structure d’incitation pour que les producteurs de contenu satisfassent aux critères requis. L’inclusion d’hyperliens vers des sources vérifiées serait une autre étape. Wikipédia pourrait servir de modèle ici: Les références et les renvois qu’il fournit aident à contextualiser les informations présentées. Twitter a récemment fait un pas dans cette direction et a commencé à signaler certains tweets avec un avertissement de vérification des faits – y compris un tweet de Donald Trump au sujet du vote par correspondance.

    Les coups de pouce pourraient également communiquer des informations supplémentaires sur le comportement en ligne des autres utilisateurs, donnant un contexte supplémentaire sur la façon dont les autres évaluent le contenu. Par exemple, le nombre de likes peut être défini par rapport au nombre total de lecteurs: “4 287 lecteurs sur 1,5 million ont aimé cet article.” L’information selon laquelle il y a eu 44 000 clics sur un article, mais que seuls 3 000 utilisateurs l’ont lu jusqu’à la fin pourrait être un meilleur indicateur de qualité que le seul nombre de clics et de likes. Il a été démontré que des formats numériques transparents peuvent améliorer les décisions médicales. Pourquoi n’en serait-il pas de même pour Internet? Cette approche pourrait empêcher la formation de chambres d’écho dans lesquelles des groupes de personnes croient à tort que leur opinion est répandue et acceptée.

    Une autre possibilité pourrait être de rendre un peu plus difficile pour les utilisateurs de partager des informations lorsqu’un article ne cite pas de références externes. Par exemple, les utilisateurs peuvent être tenus de cliquer au-delà d’une fenêtre contextuelle contenant un avertissement indiquant que les références sont manquantes. Un autre type de décalage peut cibler la façon dont le contenu est organisé dans les navigateurs, c’est-à-dire la façon dont un fil d’actualité trie le contenu. Différencier clairement les types de contenu, tels que les opinions, les actualités ou les publications d’amis, peut rendre les fils d’actualité plus transparents.

    Boosting, en revanche, vise à améliorer les compétences des utilisateurs à long terme. Cela pourrait, par exemple, signifier permettre aux utilisateurs d’ajuster la façon dont leurs fils d’actualité sont triés – en les laissant modifier leurs paramètres pour refléter les facteurs les plus importants pour eux et le contenu qu’ils souhaitent voir en premier. Les réseaux sociaux pourraient être obligés d’indiquer pourquoi certains contenus sont plus pondérés et affichés en premier, tandis que d’autres sont moins prioritaires. Un autre exemple de boost serait de présenter la source originale d’une information et l’itinéraire par lequel elle atteint un utilisateur. Des arbres de décision simples pourraient guider les utilisateurs à travers un processus étape par étape de vérification de l’origine, du contexte et de la qualité du contenu en ligne. En d’autres termes, les utilisateurs auraient les outils nécessaires pour devenir eux-mêmes des vérificateurs de faits. À long terme, ils apprendraient à reconnaître les modèles, à évaluer de manière critique le contenu et à identifier plus rapidement la manipulation.

    << La nature interactive des médias sociaux pourrait être mise à profit pour promouvoir un dialogue démocratique diversifié et favoriser l'intelligence collective. Notre objectif est de trouver des moyens de renforcer le potentiel d'Internet pour éclairer les processus décisionnels dans les sociétés démocratiques, en les renforçant plutôt qu'en les sapant. Problèmes mondiaux comme le changement climatique et la pandémie de coronavirus nécessitent des solutions collectives coordonnées. Et cela rend crucial un monde en ligne interconnecté démocratiquement », déclare Ralph Hertwig, directeur du Center for Adaptive Rationality à l'Institut Max Planck pour le développement humain.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.