Désinformation en ligne : sortir de la dictature du temps court

13 novembre 2019

Temps de lecture : 4 minutes

Photo : (c) Pixabay

Abonnement Conflits

Désinformation en ligne : sortir de la dictature du temps court

par

Des « bots » aux « fermes à trolls » en passant par Cambridge Analytica la désinformation en ligne est devenue un phénomène politique. Souvent réduit aux « fake news », l’épineux problème cache en fait une réalité plurielle qui regroupe des biais cognitifs, une crise du journalisme et de la confiance en l’État et une paresse intellectuelle croissante du public. Conséquence de ce joyeux cocktail, le phénomène de la désinformation en ligne prend aujourd’hui une ampleur sans précédent.

Récemment, une étude de l’Institut Internet de l’Université d’Oxford fait un bilan alarmant : « des agences gouvernementales et des partis politiques ont utilisé les réseaux sociaux pour diffuser de la propagande politique, polluer l’information en ligne et entraver la liberté d’expression et la liberté de la presse ». Une enquête Eurobaromètre parue en 2018 montre aussi que ce mouvement inquiète les populations : 83 % des personnes interrogées estiment en effet que les fausses informations représentent un vrai danger pour la démocratie. Une crainte encore renforcée par l’arrivée des « deepfake », qui brouillent encore plus la limite entre fait et fiction.

Un phénomène complexe

Pour bien comprendre le phénomène, il faut en envisager les tenants et les aboutissants. L’ONG First Draft a publié à ce titre une matrice, très éclairante. Elle y liste les différents types de contenus créés et partagés : satire ou parodie (qui peut, parfois sans le vouloir, induire en erreur), les contenus trompeurs, contenus fallacieux (qui imitent de vraies sources d’information), contenus fabriqués (en partie fondés sur des faits réels), liens erronés, informations vraies citées dans un contexte erroné et, enfin, contenu manipulé.

L’ONG s’est aussi penchée sur les circonstances qui ont généré ces contenus : un journalisme de piètre qualité (sans vérification a priori), l’intention parodique, un ton provocateur, la passion qui peut pousser à commettre des erreurs de contextualisation, le partie pris d’un écrit, la recherche d’un profit, d’une influence politique ou la propagande politique. En recoupant ces deux champs (comment et pourquoi), la désinformation en ligne apparaît dès lors plus clairement dans sa complexité.

Les modes de diffusion de ces contenus sont eux aussi intéressants. Il ressort de l’étude de l’Université d’Oxford précitée que le réseau social Facebook s’est fait le canal privilégié pour cette désinformation avec des campagnes menées dans 56 pays sur les 70 touchés par le phénomène. Dans le cadre du réseau social, il est possible de cibler des usagers spécifiques susceptibles d’y réagir et de marteler le même message jusqu’à assimilation.
Or, malgré l’introduction d’un outil de transparence sur Facebook, la méthode demeure d’autant plus efficace que les internautes sont fatigués par « la quantité accablante d’informations qui nous arrivent au quotidien », note First Draft. D’autant que le cerveau humain est moins capable d’esprit critique devant des informations visuelles ou des contenus qui confortent notre avis : le fameux « biais de confirmation ». Aussi, les usagers des réseaux sociaux sont eux-mêmes un vecteur important de la diffusion de contenus fallacieux, qu’ils partagent eux-mêmes sans mauvaise intention.

Outil de déstabilisation modernisé

Le diagnostic posé, qu’est-il possible d’en conclure ? D’abord il faut rappeler que, évolutions technologiques mises à part, la désinformation s’est toujours trouvée au cœur des luttes entre populations et entre nations (les faux plans de débarquement des alliés, les armes de destruction massives irakiennes, la petite taille de Napoléon, l’ingérence russe dans la présidentielle américaine de 2016…).Dans une tribune publiée dans The Hill, le Général Jean-Paul Palomeros, ancien commandant de l’OTAN, rappelle le long historique de désinformation des pouvoirs publics, mais souligne également que les risques auxquels ces derniers font face sont désormais plus grands. Il note avec justesse qu’au-delà de la Russie, coupable souvent toute désignée, tous les pays sont concernés.

A lire aussi : Les robots tueurs : entre fantasme et provocation, quelle réalité juridique ?

Il retient pour ce faire l’exemple du grand boycott d’avril 2018 au Maroc. S’il semblait en premier lieu être un mouvement spontané d’un peuple excédé, il s’est rétrospectivement avéré être une campagne orchestrée par des militants islamistes, s’appuyant sur des milliers de posts trompeurs, une petite officine de militants islamistes et des campagnes de sponsorisation agressive. Le tout afin de « fragiliser la confiance que les Marocains accordent à leur classe politique [simple_tooltip content=’http://www.epge.fr/boycott-au-maroc-en-2018-analyse-dune-campagne-de-destabilisation-informationnelle/ ‘](1)[/simple_tooltip] » et, in fine, de nuire aux élections à venir, en 2021. Résultat des courses, ce boycott, suivi par une grande partie de la population (dont les motifs de colère n’étaient pas moins justes), a connu un succès indéniable. Pourtant, il est clair que l’étincelle a été allumée par des pyromanes avec des intentions hostiles – dont les médias ne semblent pas avoir pris la mesure.

Sortir du temps court de l’information

Devant ce risque, la Commission européenne a décidé d’élaborer un code de bonnes pratiques à l’échelle de l’UE. Pour ce faire elle a collaboré avec Google, Facebook, Twitter, Mozilla et autres Wikimedia pour produire un ensemble de « mesures tangibles de lutte contre la désinformation » imaginée par les plates-formes. Il prévoit de bloquer les revenus publicitaires de certains comptes sur les réseaux sociaux ainsi que l’obligation pour les « publicités politiques [simple_tooltip content=’http://www.paris-europe.eu/011-5472-Lutte-contre-la-desinformation-la-Commission-dresse-un-bilan-des-resultats-a-la-veille-des-elections.html ‘](2)[/simple_tooltip] » d’être labellisées comme telles. S’il s’agit d’un début un peu tiède, c’est tout de même un pas dans la bonne direction.

Mais les journalistes eux-mêmes ont un rôle à jouer. Sous l’effet d’une pression croissante pour relayer l’information au plus vite, la qualité des contrôles de l’information s’est effondrée. Exemple célèbre des effets délétères du temps court, la prise d’otage de l’Hyper Cacher par Amedy Coulibaly, durant laquelle un journaliste avait révélé la cachette de plusieurs otages par accident, ce qui aurait pu leur coûter la vie. Les récents incidents autour de l’arrestation d’un « faux » Xavier Dupont de Ligones et le traitement de l’incertitude entourant l’incendie de l’usine Seveso à Rouen (avec son lot de radicalisation sémantique et de précipitation dangereuse) illustrent également cette dérive.

Pour restaurer le lien de confiance avec le public, il est crucial que les médias revoient leur rapport à l’actualité, et sortent de cette course contre la montre qui s’est avérée totalement contre-productive. A contrario, nombre d’études ont souligné que les interactions avec le public sont un facteur positif. Le rapport de confiance s’améliore à mesure que les journalistes s’impliquent dans les sections de commentaires et sur les réseaux sociaux. Enfin, une plus grande transparence sur la rédaction des articles – les procédures suivies, les raisons de ces procédures – permettrait de davantage mettre en valeur le travail de journaliste, et faire comprendre les délais entre un événement et sa couverture par la presse.

Mots-clefs :

Temps de lecture : 4 minutes

Photo : (c) Pixabay

Vous venez de lire un article en accès libre

La Revue Conflits ne vit que par ses lecteurs. Pour nous soutenir, achetez la Revue Conflits en kiosque ou abonnez-vous !

À propos de l’auteur
Christophe Nourissier

Christophe Nourissier

La Lettre Conflits
3 fois par semaine

La newsletter de Conflits

Voir aussi

Pin It on Pinterest