Les utilisateurs des réseaux sociaux préfèrent souvent mettre en avant les contenus susceptibles d'être largement "likés" et partagés, quel que soit leur degré d'exactitude © AFP/Archives Oli SCARFF
Facebook et les autres réseaux sociaux savaient que 2020, avec la présidentielle américaine, allait être une année à risque en matière de désinformation. Mais la pandémie de coronavirus a ouvert un autre front aux conséquences potentiellement mortelles.
Venue de l’étranger ou de l’intérieur, la menace planant sur le scrutin de novembre avait été identifiée depuis longtemps déjà et les plateformes semblaient, dans une certaine mesure, prêtes à y faire face.
Rien ne pouvait en revanche leur laisser prévoir le déluge d’informations erronées, de théories du complot et de faux remèdes miracles qui s’abat en ligne à mesure que se répand l’épidémie de Covid-19 à travers le monde.
« Il existe toujours une disparité entre ce que les gens pensent être vrai et ce qu’ils sont enclins à partager », dit à l’AFP David Rand, spécialiste du cerveau et des sciences cognitives à l’université MIT.
Autrement dit: les utilisateurs des réseaux sociaux préfèrent souvent mettre en avant les contenus susceptibles d’être largement « likés » et partagés, quel que soit leur degré d’exactitude.
Des messages les encourageant à s’interroger au préalable sur la véracité de ces contenus sont donc nécessaires, estime David Rand, co-auteur d’une étude, publiée début mars, sur la désinformation autour du Covid-19. Ce à quoi les plateformes peuvent sembler réticentes de peur de « dégrader l’expérience des utilisateurs ».
– Faux remèdes miracles –
Mais alors que les scientifiques sont à pied d’oeuvre à travers le monde pour trouver vaccins et traitements, les fausses informations qui se propagent en ligne peuvent avoir des conséquences dramatiques.
En Iran, un des pays les plus durement touchés par la pandémie, plus de 200 personnes sont décédées d’intoxication au méthanol après des rumeurs selon lesquelles boire de l’alcool pouvait contribuer à guérir ou à se protéger du Covid-19, selon l’agence officielle Irna.
Cendres volcaniques, lampes à UV ou eau de javel… La liste est longue des faux remèdes pouvant s’avérer dangereux.
« J’ai vu des publications sur des +traitements+ ou des méthodes de prévention dont l’efficacité n’a pas été prouvée et/ou pleines d’informations trompeuses, des appels à la population à faire des provisions d’équipement et de nourriture », note le Dr Jason McKnight, enseignant en médecine à l’université A&M du Texas.
La désinformation sur le virus pose selon lui deux dangers principaux: « provoquer la peur ou la panique » et « potentiellement pousser les gens à faire des choses nocives dans l’espoir de guérir ou de prévenir la maladie ».
– Messages préventifs –
Facebook a annoncé le 18 mars que les contenus « faisant autorité » apparaîtraient désormais en priorité sur les fils des utilisateurs: messages et vidéos de l’Organisation mondiale de la Santé (OMS), d’experts ou de célébrités.
Le premier réseau social au monde rappelle également son engagement à lutter contre la désinformation au moyen d’un programme de vérificateurs externes (« fact-checkers »), dont l’AFP, qui a déjà étiqueté comme « faux » près de 200 mythes et rumeurs autour du coronavirus.
Ces contenus fallacieux sont ensuite rétrogradés dans les fils d’actualité, afin d’être moins visibles, et un article expliquant en quoi il s’agit de désinformation apparaît lorsqu’un utilisateur essaie de les partager.
Une porte-parole de Facebook n’a pas souhaité commenter la possibilité pour la plateforme de mettre en place des messages incitant les gens à y réfléchir à deux fois avant de relayer une publication.
« Nous souhaitons faire en sorte que chacun sur notre réseau ait accès à des informations crédibles et faisant autorité en matière de santé », a répondu de son côté un porte-parole de Twitter, sans s’exprimer non plus sur la pertinence de tels messages préventifs.
Ces derniers seraient pourtant pour les plateformes relativement « faciles à mettre en place », conclut l’étude menée par David Rand, du MIT, « et pourraient avoir un effet positif immédiat sur la vague de désinformation sur l’épidémie de Covid-19 ».
LNT avec Afp