La désinformation peut se propager comme une maladie, tandis que les croyances antérieures limitent l’influence des nouvelles informations –


  • FrançaisFrançais


  • Cela commence par un super épandeur et se fraie un chemin à travers un réseau d’interactions, ne laissant finalement personne indemne. Ceux qui ont été exposés auparavant peuvent ne ressentir que des effets légers.

    Non, ce n’est pas un virus. C’est la propagation contagieuse de la désinformation et de la désinformation – une désinformation entièrement destinée à tromper.

    Maintenant, les chercheurs de l’Université Tufts ont mis au point un modèle informatique qui reflète remarquablement la façon dont la désinformation se propage dans la vie réelle. Le travail pourrait fournir un aperçu sur la façon de protéger les gens de la contagion actuelle de la désinformation qui menace la santé publique et la santé de la démocratie, disent les chercheurs.

    “Notre société est aux prises avec des croyances répandues dans les complots, une polarisation politique croissante et une méfiance à l’égard des découvertes scientifiques”, a déclaré Nicholas Rabb, un doctorat. étudiant en informatique à la Tufts School of Engineering et auteur principal de l’étude, parue le 7 janvier dans la revue PLOS UN. “Ce modèle pourrait nous aider à comprendre comment la désinformation et les théories du complot se propagent, pour aider à trouver des stratégies pour les contrer.”

    Les scientifiques qui étudient la diffusion de l’information prennent souvent une page d’épidémiologistes, modélisant la propagation de fausses croyances sur la façon dont une maladie se propage à travers un réseau social. La plupart de ces modèles, cependant, traitent les personnes dans les réseaux comme prenant toutes également en compte toute nouvelle croyance qui leur est transmise par les contacts.

    Les chercheurs de Tufts ont plutôt basé leur modèle sur l’idée que nos croyances préexistantes peuvent fortement influencer notre acceptation de nouvelles informations. De nombreuses personnes rejettent les informations factuelles étayées par des preuves si elles les éloignent trop de ce qu’elles croient déjà. Les agents de santé ont commenté la force de cet effet, observant que certains patients mourant du COVID s’accrochent à la croyance que le COVID n’existe pas.

    Pour en tenir compte dans leur modèle, les chercheurs ont attribué une “croyance” à chaque individu du réseau social artificiel. Pour ce faire, les chercheurs ont représenté les croyances des individus dans le modèle informatique par un nombre de 0 à 6, 0 représentant une forte incrédulité et 6 représentant une forte croyance. Les chiffres pourraient représenter l’éventail des croyances sur n’importe quelle question.

    Par exemple, on pourrait penser au chiffre 0 représentant la forte incrédulité que les vaccins COVID sont utiles et sûrs, tandis que le chiffre 6 pourrait être la forte conviction que les vaccins COVID sont en fait sûrs et efficaces.

    Le modèle crée ensuite un vaste réseau d’individus virtuels, ainsi que des sources institutionnelles virtuelles qui sont à l’origine d’une grande partie des informations qui transitent par le réseau. Dans la vraie vie, il pourrait s’agir des médias d’information, des églises, des gouvernements et des influenceurs des médias sociaux – essentiellement les super-diffuseurs d’informations.

    Le modèle commence par une source institutionnelle qui injecte l’information dans le réseau. Si un individu reçoit des informations proches de ses croyances – par exemple, un 5 par rapport à son 6 actuel – il a une probabilité plus élevée de mettre à jour cette croyance à un 5. Si les informations entrantes diffèrent considérablement de ses croyances actuelles – disons un 2 par rapport à un 6 – ils le rejetteront probablement complètement et conserveront leur croyance au niveau 6.

    D’autres facteurs, tels que la proportion de leurs contacts qui leur envoient l’information (essentiellement, la pression des pairs) ou le niveau de confiance dans la source, peuvent influencer la façon dont les individus mettent à jour leurs croyances. Un modèle de réseau à l’échelle de la population de ces interactions fournit ensuite une vue active de la propagation et de la persistance de la désinformation.

    Les améliorations futures du modèle prendront en compte les nouvelles connaissances issues à la fois de la science des réseaux et de la psychologie, ainsi qu’une comparaison des résultats du modèle avec des sondages d’opinion du monde réel et des structures de réseau au fil du temps.

    Alors que le modèle actuel suggère que les croyances ne peuvent changer que progressivement, d’autres scénarios pourraient être modélisés qui provoquent un changement plus important dans les croyances – par exemple, un saut de 3 à 6 qui pourrait se produire lorsqu’un événement dramatique arrive à un influenceur et qu’il plaide avec leurs partisans à changer d’avis.

    Au fil du temps, le modèle informatique peut devenir plus complexe pour refléter avec précision ce qui se passe sur le terrain, disent les chercheurs, qui, en plus de Rabb, incluent sa conseillère pédagogique Lenore Cowen, professeure d’informatique ; l’informaticien Matthias Scheutz ; et JP deRuiter, professeur de psychologie et d’informatique.

    “Il devient trop clair que la simple diffusion d’informations factuelles peut ne pas suffire à avoir un impact sur l’état d’esprit du public, en particulier parmi ceux qui sont enfermés dans un système de croyances qui n’est pas basé sur des faits.” dit Cowen. “Notre effort initial pour incorporer cette idée dans nos modèles de la mécanique de la désinformation répandue dans la société peut nous apprendre comment ramener la conversation publique aux faits et aux preuves.”

    Source

    La Rédaction

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

    Copy code