Une étude montre qu’il est possible de suivre les campagnes de désinformation en temps réel –

  • FrançaisFrançais



  • Une équipe de recherche dirigée par l’Université de Princeton a mis au point une technique de suivi des campagnes de désinformation en ligne à l’étranger en temps réel, ce qui pourrait aider à atténuer les interférences extérieures lors de l’élection américaine de 2020.

    Les chercheurs ont développé une méthode d’utilisation de l’apprentissage automatique pour identifier les comptes Internet malveillants, ou trolls, en fonction de leur comportement passé. Présenté dans Progrès scientifiques, le modèle a enquêté sur les campagnes de désinformation passées en Chine, en Russie et au Venezuela qui ont été menées contre les États-Unis avant et après les élections de 2016.

    L’équipe a identifié les modèles suivis par ces campagnes en analysant les publications sur Twitter et Reddit et les hyperliens ou URL qu’elles incluaient. Après avoir effectué une série de tests, ils ont constaté que leur modèle était efficace pour identifier les publications et les comptes qui faisaient partie d’une campagne d’influence étrangère, y compris ceux de comptes qui n’avaient jamais été utilisés auparavant.

    Ils espèrent que les ingénieurs en logiciel pourront s’appuyer sur leurs travaux pour créer un système de surveillance en temps réel pour exposer l’influence étrangère dans la politique américaine.

    «Ce que signifie notre recherche, c’est que vous pouvez estimer en temps réel la quantité qui existe et ce dont ils parlent», a déclaré Jacob N. Shapiro, professeur de politique et d’affaires internationales à la Princeton School of Public and International. Affaires. «Ce n’est pas parfait, mais cela obligerait ces acteurs à faire preuve de plus de créativité et éventuellement à arrêter leurs efforts. Vous ne pouvez qu’imaginer à quel point cela pourrait être mieux si quelqu’un déploie des efforts d’ingénierie pour l’optimiser.

    Shapiro et le chercheur associé Meysam Alizadeh ont mené l’étude avec Joshua Tucker, professeur de politique à l’Université de New York, et Cody Buntain, professeur adjoint en informatique au New Jersey Institute of Technology.

    L’équipe a commencé par une question simple: en utilisant uniquement des fonctionnalités basées sur le contenu et des exemples d’activité de campagne d’influence connue, pourriez-vous regarder d’autres contenus et dire si un message donné faisait partie d’une campagne d’influence?

    Ils ont choisi d’étudier une unité connue sous le nom de «paire postURL», qui est simplement un message avec un lien hypertexte. Pour avoir une influence réelle, les opérations coordonnées nécessitent un échange d’informations intense, piloté par l’homme et les robots. L’équipe a émis l’hypothèse que des publications similaires peuvent apparaître fréquemment sur les plates-formes au fil du temps.

    Ils ont combiné des données sur les campagnes de troll de Twitter et Reddit avec un riche ensemble de données sur les publications d’utilisateurs politiquement engagés et d’utilisateurs moyens collectés pendant de nombreuses années par le Center for Social Media and Politics (CSMaP) de NYU. Les données sur les trolls comprenaient des données Twitter et Reddit accessibles au public provenant de trolls chinois, russes et vénézuéliens totalisant 8000 comptes et 7,2 millions de publications de fin 2015 à 2019.

    “Nous n’aurions pas pu mener l’analyse sans cet ensemble de données de comparaison de base de tweets ordinaires et ordinaires”, a déclaré Tucker, codirecteur du CSMaP. “Nous l’avons utilisé pour former le modèle à faire la distinction entre les tweets des campagnes d’influence coordonnées et ceux des utilisateurs ordinaires.”

    L’équipe a examiné les caractéristiques de la publication elle-même, comme le timing, le nombre de mots ou si le domaine URL mentionné est un site Web d’actualités. Ils ont également examiné ce qu’ils appelaient le «métacontenu» ou la manière dont le message d’un message était lié à d’autres informations partagées à ce moment-là (par exemple, si une URL faisait partie des 25 principaux domaines politiques partagés par les trolls).

    “La perspicacité de Meysam sur le métacontenu était la clé”, a déclaré Shapiro. “Il a vu que nous pouvions utiliser la machine pour reproduire l’intuition humaine selon laquelle” quelque chose à propos de ce message semble déplacé “. Les trolls et les gens normaux incluent souvent des URL de nouvelles locales dans leurs messages, mais les trolls ont tendance à mentionner différents utilisateurs dans ces messages, probablement parce qu’ils essaient d’attirer l’attention de leur public dans une nouvelle direction. Metacontent permet à l’algorithme de trouver de telles anomalies. “

    L’équipe a testé sa méthode de manière approfondie, examinant les performances de mois en mois sur cinq tâches de prédiction différentes à travers quatre campagnes d’influence. Dans presque tous les 463 tests différents, il était clair quels messages faisaient et ne faisaient pas partie d’une opération d’influence, ce qui signifie que les fonctionnalités basées sur le contenu peuvent effectivement aider à trouver des campagnes d’influence coordonnées sur les médias sociaux.

    Dans certains pays, les modèles étaient plus faciles à repérer que d’autres. Les trolls vénézuéliens n’ont retweeté que certaines personnes et certains sujets, ce qui les rend faciles à détecter. Les trolls russes et chinois étaient meilleurs pour donner à leur contenu un aspect organique, mais ils pouvaient aussi être trouvés. Début 2016, par exemple, les trolls russes étaient assez souvent liés à des URL d’extrême droite, ce qui était inhabituel compte tenu des autres aspects de leurs publications, et, début 2017, ils se connectaient à des sites Web politiques de manière étrange.

    Dans l’ensemble, l’activité des trolls russes est devenue plus difficile à trouver avec le temps. Il est possible que des groupes d’enquête ou d’autres aient compris les fausses informations, signalant les messages et obligeant les trolls à changer de tactique ou d’approche, bien que les Russes semblent également avoir produit moins en 2018 que les années précédentes.

    Bien que la recherche montre qu’il n’y a pas d’ensemble stable de caractéristiques qui trouveront des efforts d’influence, elle montre également que le contenu des trolls sera presque toujours différent de manière détectable. Dans un ensemble de tests, les auteurs montrent que la méthode peut trouver des comptes jamais utilisés auparavant qui font partie d’une campagne en cours. Et bien que les plateformes de médias sociaux suppriment régulièrement les comptes associés à des campagnes de désinformation étrangères, les conclusions de l’équipe pourraient conduire à une solution plus efficace.

    «Lorsque les plates-formes interdisent ces comptes, non seulement cela rend difficile la collecte de données pour trouver des comptes similaires à l’avenir, mais cela signale à l’acteur de désinformation qu’il doit éviter le comportement qui a conduit à la suppression», a déclaré Buntain. “Ce mécanisme permet [the platform] pour identifier ces comptes, les séparer du reste de Twitter et faire croire à ces acteurs comme s’ils continuaient à partager leur matériel de désinformation. “

    Les travaux mettent en évidence l’importance de la recherche interdisciplinaire entre les sciences sociales et informatiques, ainsi que la criticité du financement des archives de données de recherche.

    “Le peuple américain mérite de comprendre tout ce que font les pays étrangers pour influencer notre politique”, a déclaré Shapiro. “Ces résultats suggèrent que fournir ces connaissances est techniquement faisable. Ce qui nous manque actuellement, c’est la volonté politique et le financement, et c’est une parodie.”

    La méthode n’est pas une panacée, ont averti les chercheurs. Il faut que quelqu’un ait déjà identifié une activité de campagne d’influence récente pour en tirer des leçons. Et comment les différentes fonctionnalités se combinent pour indiquer des changements de contenu douteux au fil du temps et entre les campagnes.

    L’article intitulé “Les fonctionnalités basées sur le contenu prédisent les opérations d’influence sur les médias sociaux” apparaîtra dans Progrès scientifiques.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée.