Une récente étude a analysé les données d’une personne réelle sur Twitter et les données de plusieurs comptes Twitter qui semblent automatisés pour mieux comprendre comment nous pouvons être en mesure de repérer un bot en ligne.
À présent, c’est clair : les acteurs politiques qui tentent de faire bouger les élections de 2016 aux États-Unis ont très probablement tenté d’influencer les gens, en partie, en utilisant des comptes de robots fictifs mais trompeurs sur les médias sociaux, y compris Twitter.
La société a récemment remis aux commissions sur le renseignement du Sénat et de la Chambre des représentants des données sur 200 témoignages que les acteurs politiques russes ont pu utiliser pour s’interroger sur les points de vue des gens sur les questions controversées pendant la campagne présidentielle. Twitter a également publié une déclaration sur les robots et les réseaux de manipulation sur leur plate-forme, et ses dirigeants vont probablement apparaître avant une audience du Congrès. Voir des informations polarisantes ou fausses partagées sur des plateformes sociales américaines, ce qui inclut l’utilisation de bots commence à faire partie intégrante de la vie en ligne, alors que les entreprises luttent pour y remédier.
En savoir d’avantgae sur les Bots sur Twitter
Alors, qu’est-ce qu’un bot sur Twitter ? Au sens strict du terme, c’est un compte qui est automatisé, ce qui signifie qu’ils sont contrôlés par un script informatique plutôt que par une personne. Beaucoup de bots sont bénins ou même utiles. Pensez à des comptes de bots de poésie qui tweetent des haïkus ou des bots qui alertent les gens sur les tremblements de terre. Mais ils peuvent être problématiques lorsqu’une personne ou un groupe utilise un grand nombre d’entre eux pour influencer des conversations politiques ou pour répandre une fausse information.
« Les [bots] ont le potentiel de fausser sérieusement tout débat », a déclaré Ben Nimmo, un membre du Conseil de l’Atlantique, qui a étudié les armées de bot pendant des années et rédigé un guide pour repérer les bots pour le Digital Forensics Research Lab (DFRL) ou laboratoire de recherche en criminalistique. « Ils peuvent faire d’un groupe de six personnes ressemblant à un groupe de 46 000 personnes. »
Il n’y a pas de moyen infaillible pour savoir si un compte est un bot. Mais il existe un certain nombre de façons différentes d’examiner les comptes Twitter, principalement pour déterminer si leur comportement ressemble à celui d’un humain. Ce qui peut nous aider à mieux comprendre l’univers des comptes d’utilisateurs automatisés. En bref, les bots ont tendance à tweeter plus et en rafales, ils ont des fonctionnalités automatisées ou copiées dans leurs profils, et retweetent beaucoup.
BuzzFeed News a fait une comparaison entre les données Twitter de l’un de ses propres éditeurs humains et les données de plusieurs comptes ayant une activité de type bot pour mettre en évidence leurs différences dans les personnages et les comportements.
BuzzFeed news a regardé les données Twitter de Tom Namako, un éditeur de l’équipe de Breaking News avec un très haut niveau d’approche de bot ! (Effrayant, Tom) : le niveau d’activité et les données des comptes Twitter sont identifiées en tant que comptes automatisés par le DFRL ou laboratoire de recherche en criminalistique. (Nous avons également choisi Tom pour éviter d’utiliser des comptes qui peuvent sembler ouvertement politiques, puisque la conversation autour des bots est, maintenant, juste cela.)
Les bots agissent de manière bizarre et erratique, mais un indicateur révélateur est le nombre de tweets publiés par un compte.
Selon le DFRL ou laboratoire de recherche en criminalistique, tweeter 72 fois par jour est suspect, et plus de 144 tweets par jour semblent très suspects.
Le compte Twitter @ sunneversets100, identifié par le DFRL ou laboratoire de recherche en criminalistique comme un robot, est sur Twitter depuis le 11 novembre 2016 et a tweeté 202 763 fois. Cela correspond en moyenne à 630 tweets par jour.
Une analyse de BuzzFeed News des derniers 2 955 tweets : le maximum de tweets mis à disposition via Twitter montre que la dernière fois que le compte était actif, il diffusait systématiquement un nombre suspect de tweets, atteignant 584 en une journée. Ensuite, il semble s’être arrêté en mai de cette année.
Les derniers 2 955 tweets de @ tomnamako ressemblent plus à ceci :
C’est le même nombre de tweets pour les deux comptes. Les tweets du bot sont concentrés sur de courtes périodes de temps.
Le 14 avril, lorsque le robot a tweeté plus de 580 fois, il a affiché 242 fois en l’espace d’une heure, ce qui correspond en moyenne à un tweet toutes les 24 secondes. Le jour le plus actif, Namako a tweeté 90 fois en une journée.
Voici ce que ressemble les attitudes pour le bot, @ sunneversets100, sur son heure la plus actif et son jour le plus actif. La taille du cercle représente le nombre de tweets à tout moment. La majorité des cercles représentent un tweet. Il y a eu plusieurs cas, cependant, @ sunneversets100 a tweeté deux fois en une seconde.
Si un bot n’est pas une personne, alors certaines de ses informations de profil peuvent les affirmer.
Un autre bon indicateur de l’authenticité est l’information personnelle d’un compte : cela peut inclure n’importe quoi de l’identification des informations comme un « vrai » sondage Twitter…
… pour profiler des photos (beaucoup de comptes automatisés utilisent la silhouette comme image de profil, le nouvel « œuf », l’avatar par défaut assigné par Twitter.)
Des bots légèrement plus sophistiqués présenteront des photos volées sur le web comme celle-ci :
Une simple recherche d’image inversée de Google révèle que cette image d’un autre bot identifié par DFRL ou laboratoire de recherche en criminalistique, par exemple, a été utilisée au moins quatre fois par d’autres comptes Twitter.
Certains bots existent pour booster les tweets des autres : regardez donc ce qu’un compte publie.
Une analyse plus approfondie de @ sunneversets100 révèle que 99 % des 2 955 tweets de BuzzFeed News n’étaient pas originaux, mais plutôt des retweets. Pour Namako, ce taux est juste supérieur à 40 %.
@ sunneversets100 a mentionné plus de 2 000 identifiants uniques de Twitter dans ses tweets, tandis que les 20 premiers identifiants étaient en grande partie des nouvelles étrangères et des écrivains individuels. Les organes de presse les plus mentionnés étaient @sputnikint, un média russe financé par l’Etat (265 fois), suivi par l’organisation d’information chinoise @xhnews (125 fois), l’agence de presse turque @yenisafaken (60 fois), un site conservateur loyal au président Recep Tayyip Erdoğan, et chaîne d’information @alarabiya_eng (50 fois) :
Source : Twitter
@ Tomnamako a mentionné plus de 650 identifiants uniques dans ses tweets et mentionne largement les journalistes. Dix-huit des identifiants les plus importantes de @ tomnamako étaient des journalistes, des éditeurs et d’autres comptes affiliés à BuzzFeed News. Les deux autres étaient un journaliste du New York Times et du président Donald Trump :
Source : Twitter
Au fil des ans, les robots sont devenus plus sophistiqués.
D’une part parce que Twitter a trouvé plus de moyens de les réprimer et, d’autre part, une partie de la technologie derrière eux s’est améliorée.
En 2010, nous avons trouvé un groupe de robots qui faisaient la promotion de fausses nouvelles. C’était un agent politique qui dirigeait « un site Web et 10 bots », a déclaré Filippo Menczer, professeur à l’Institut des sciences du réseau à l’Université de l’Inde, qui a étudié les bots pendant des années et co-développé Botometer, un outil qui mesure des centaines de fonctionnalités pour déterminer si un compte peut être un bot ou non.
Les bots disaient, qu’ils tweeteraient, lieraient à un faux article et mentionneraient un utilisateur influent, essayant d’obtenir ces utilisateurs pour propager les articles. Les opérateurs de bot « savaient que Twitter avait des mécanismes [automatisés] en place pour démarrer certains robots » en fonction des types de liens qu’ils affichaient. Donc, pour contourner cela, ils ajoutaient des caractères aléatoires à leurs liens pour les obscurcir, disait-il, et « Twitter ne le détecterait pas. »
Aujourd’hui, il disait : « Si vous voulez inscrire un bot qui ne se fait pas attraper, vous devez être meilleur que ça. »
(Tous les comptes identifiés par la DFRL ou laboratoire de recherche en criminalistique comme étant des robots n’ont pas retourné les demandes de commentaires, et Twitter n’a pas retourné également les demandes de commentaires.)
Il y a des robots qui sont programmés pour tweeter en dessous d’une fréquence spécifique que Twitter peut considérer comme une activité semblable au spam. Il y a des bots connus sous le nom de cyborgs qui sont en partie exploités par de vraies personnes pour se débarrasser des algorithmes essayant de les réprimer. Les comptes qui ont été créés mais inactifs pendant des années peuvent être repris par des scripts automatisés et réutilisés pour des messages commerciaux ou politiques.
Les bots sont maintenant de toutes formes, ils peuvent avoir une durée de vie de quelques années ou seulement quelques minutes, et agissent seuls ou à l’unisson avec jusqu’à 100 000 d’entre eux, a déclaré Nimmo de la DFRL ou laboratoire de recherche en criminalistique.
« Est-il légitime de poser comme quelqu’un d’autre, d’utiliser la photo de quelqu’un d’autre, pour automatiser la publication ? À quel moment est-il devenu illégitime d’automatiser l’affichage ? », a déclaré M. Nimmo. « [Les sociétés de médias sociaux] doivent diviser la question du bot en ses composants. Ce qu’ils doivent faire, c’est publier publiquement comment ils répondent à ces questions. »