Fausses nouvelles
« Ce n’est pas une crise, c’est un changement de monde » écrit Michel Serres. L’expression fake news est apparue dans les années 90 dans les médias américains. Alors qu’elle était cantonnée à des débats spécifiques, cette expression s’est retrouvée sous les feux de la rampe en 2016, lors de la campagne de Donald Trump. S’il a été largement commenté, relayé et discuté, ce syntagme garde des contours flous qui paraissent difficiles à circonscrire.
Le dictionnaire britannique Collin’s l’a d’ailleurs élu mot de l’année 2017 et le définit de la manière suivante : « une fausse information, souvent sensationnelle, diffusée en tant qu’actualité ». Le terme recouvre ainsi une diversité de pratiques et d’intentions. Il existe une variété de cas de fake news, dont nous ne donnerons ici que deux exemples. Dans un premier temps nous pouvons identifier les fake news délibérées, motivées par un intérêt mercantile : le cas des deux adolescents macédoniens qui ont mis sur pied un site propageant des fake news en vue de drainer du trafic web et ainsi engranger des profits liés aux revenus publicitaires illustre cette catégorie. Par ailleurs, il existe aussi une autre catégorie de fake news, plus menaçante pour nos sociétés modernes et qui semble figer la définition, les fake news intentionnelles derrière lesquelles se cache un discours idéologique construit dans le but d’influencer la prise de décision et “l’opinion publique”.
La désinformation n’est pas un phénomène récent : les mensonges éhontés font partie du discours politique depuis l’Antiquité grecque et romaine. Ainsi, les livres de Procope de Césarée recèlent de premières traces de « fake news » : cet historien byzantin du VIe siècle avait truffé d’informations douteuses son Histoire secrète de l’empereur Justinien pour nuire à la réputation de ce dernier. Pendant les cinq siècles qui suivirent l’invention de Gutenberg, la page imprimée a été le moyen d’information dominant : les informations circulaient sous ce format, aux coûts élevés, ce qui pouvait renforcer l’impression de lire des exactitudes. Toutefois, ces vérités émanaient de ce que l’on appelle l’establishment, journalistes ou hommes politiques étaient les seuls à pouvoir s’exprimer librement dans l’espace public. Le pouvoir de ces gatekeepers, qu’ils exerçaient sur la sélection de l’information et de leur diffusion, d’user de la rareté pour introduire des règles de sélection et de hiérarchisation propres à leurs mondes professionnels et à leurs prismes. La représentation du monde qu’ils livraient au public, sans retour possible, n’a cessé de se voir contestée en raison des oublis, des exclusions et des déformations qu’ils produisaient. Vingt-cinq ans après l’apparition des premiers sites internet, le nombre d’auteurs rivalise aujourd’hui avec le nombre de lecteurs. La démocratisation de l’accès au web a ainsi permis à de nombreuses voix de faire irruption dans un espace public, dont elles étaient exclues du fait d’un contrôle de l’information par les professions des médias, dont les habitudes professionnelles accordent peu d’importance aux sources d’informations “alternatives” (militantes, politiques, associatives). La suppression de ces barrières coïncide avec un effritement de la confiance accordée aux instances de médiation entre le pouvoir étatique et le peuple, médias comme partis politiques, tel que l’ont révélé les résultats des enquêtes d’opinion. La crise de la représentation qui touche ces intermédiaires, considérés comme les socles d’une démocratie par certains universitaires, a pu prendre racine dans le terreau Internet et conduit à une mutation de la médiation qui se retrouve aujourd’hui sur les réseaux sociaux.
De la sorte, il n’a jamais été aussi facile qu’aujourd’hui de publier des informations mensongères qui sont immédiatement reprises et passent pour des vérités, un smartphone suffit. Les mécanismes de création et de propagation sont complexes, mais signalons ici l’un des principaux germes de la vitesse et l’étendue de la propagation de ces fake news, qui réside dans la psychologie humaine, au sein de nos biais cognitifs, culturels et psychologiques et orientent notre réception des informations. Certains de nos biais cognitifs d’abord, n’ont rien à voir avec les plateformes sociales, mais se voient renforcés par leur utilisation. Tandis que d’autres sont reliés au numérique et à ses plateformes, avec un lien de causalité directe. Par ailleurs, deux constantes sociologiques sont primordiales dans la circulation des fake news : la spirale du silence et la tyrannie des agissants. La première se base sur le constat que l’humain est sensible à son environnement social. Si ses opinions se retrouvent à contre-courant de l’opinion publique, véhiculée par les médias de masse ou les plateformes numériques, l’individu, face à la crainte de se retrouver isolé dans son environnement social, aura tendance à taire son avis. Le second phénomène renvoie à l’idée que l’égalité a priori s’effrite face à la mesure de nos actes, entre ceux qui agissent et ceux qui n’agissent pas. Ainsi, Internet accorde une forte primauté à ceux qui font, engendrant une tyrannie des agissants. Les caractéristiques propres du média Internet, avec ses conséquences (chambres d’écho et viralité), permettent de la sorte la prégnance de ce phénomène qui accélère les possibles spirales du silence, permettant parfois de faire basculer l’opinion. A l’échelle d’une plateforme, s’ajoute une troisième composante, celle des audiences invisibles. Il est impossible, sur une plateforme, de savoir à qui s’adressent les messages émis par un utilisateur lambda et ce, pour deux raisons : on ne peut pas prévoir qui sera derrière son écran au moment de la réception du message, et le déterminisme algorithmique va surexposer certains messages et en minorer d’autres. Il convient de noter que les biais sociologiques évoqués précédemment s’appuient sur un fondement anthropologique, celui de la pensée tribale. Ce mode de fonctionnement cognitif postule que la plupart de nos intuitions sont acquises socialement et associées aux valeurs de notre tribu, ou endogroupe : nous développons alors une méfiance intuitive qui tourne facilement à la haine envers ceux qui font partie de l’exogroupe. La polarisation des opinions et la virulence des fake news découlent principalement de cette caractéristique. Il s’agit donc de la variable anthropologique de la bulle de filtre, l’autre versant est constitué par les différents déterminismes et dispositifs algorithmiques.
Si ces modifications du rapport à l’information opèrent à l’échelle du groupe, c’est au niveau individuel que s’ajoutent des heuristiques de jugement, définies comme un raccourci cognitif utilisé par les individus afin de simplifier leurs opérations mentales dans le but de répondre aux exigences de l’environnement. Ces heuristiques se mettent en place selon notre humeur, ainsi, la joie et la colère vont favoriser notre recours mental à ces simplifications. Le modèle économique des plateformes a pour seul et unique projet de nous rendre plus réceptifs aux différentes sollicitations publicitaires, d’où l’intérêt de Facebook d’affiner son algorithme pour modifier notre humeur. Dans la pléthore d’heuristiques qui nous gouvernent, le biais de confirmation est l’un des plus prégnants sur les plateformes puisqu’il est la cause et l’origine de la prétendue bulle de filtres. Si chacun aura tendance à privilégier les informations, vraies comme fausses, qui le conforte dans sa vision du monde, une couche algorithmique vient dédoubler le phénomène puisque les plateformes s’appuient sur nos traces pour prévoir de nous exposer à des contenus qui permettent de corroborer ladite vision du monde. Un internaute qui crée de l’engagement sur des fake news se verra ainsi, par récursivité, proposer encore plus de contenus du même type. Le biais d’ancrage influence également notre perception, elle désigne la difficulté de se départir d’une première impression, comme une prime à l’antériorité. Sur les moteurs de recherche, ce biais s’applique aux premiers résultats affichés. Sur les réseaux sociaux, ce biais agit d’une manière différente mais plus importante puisque l’information qui nous est présentée est souvent celle qui bénéficie de la plus forte viralité au sein de la plateforme, et par conséquent moins fiable en tout cas celle qui bénéficie des biais évoqués précédemment.
Le principal pilier de la diffusion des fake news tient au régime de vérité sur lequel est bâtie la plateforme. Foucault, dans un numéro de politique-Hebdo de 1976, parlait en ces termes du régime de vérité : « Chaque société a son régime de vérité, sa politique générale de la vérité: c’est-à-dire les types de discours qu’elle accueille et fait fonctionner comme vrais ; les mécanismes et les instances qui permettent de distinguer les énoncés vrais ou faux, la manière dont on sanctionne les uns et les autres ; les techniques et les procédures qui sont valorisées pour l’obtention de la vérité ; le statut de ceux qui ont la charge de dire ce qui fonctionne comme vrai”. La plateforme de Facebook a été conçue pour divertir et vendre, non pour informer. Or, pour arriver à ses fins, ledit dispositif se doit d’émouvoir, et les informations les plus partagées sont celles qui justement émeuvent. En ce sens, dans le but de constituer une audience segmentable à volonté au service de la publicité, Facebook a besoin de contenus suscitant l’engagement, l’engagement étant la valeur, le régime de vérité de la plateforme, au vu de son modèle commercial. Ainsi, pour Facebook, ce n’est ni la popularité, ni la « vérifiabilité » (comme Wikipédia) qui importe, mais l’engagement. Les fake news, par leur nature sensationnelle, sont donc le carburant idéal de l’engagement. Le clickbait n’est donc que la conséquence structurelle de la raison d’être de Facebook. La complexité du régime de vérité s’établit sur plusieurs niveaux, si le premier est celui du déterminisme algorithmique, le second se retrouve au sein de la volonté commerciale et de la culture des membres du conseil d’administration de la plateforme, qui se répercute ensuite sur les ingénieurs chargés d’ajuster les algorithmes. Le troisième niveau, le plus déterminant, se trouve au niveau de l’actionnariat et des sources principales de financement de la plateforme. L’idéologie libertarienne, (issue du libéralisme qui prône au sein d’un système de propriété et de marché universel, la liberté individuelle en tant que droit naturel) qui irrigue la Silicon Valley depuis ses débuts se conjugue de la sorte à un actionnariat qui cherche avant-tout à préserver ses intérêts pour former un projet politique et vision du monde. Un projet dont l’algorithme est au mieux la réverbération, au pire l’ustensile. On retrouve ainsi le même problème que dans les médias traditionnels : une concentration du pouvoir au main de quelques oligarques milliardaires. Une enquête du Guardian a ainsi montré le rôle joué par Robert Mercer, décrit comme le « Big Data Billlionnaire », dans la campagne victorieuse de Trump et du Brexit, en tant que principal investisseur de Cambridge Analytica. Cette société s’est spécialisée dans la collecte de données sur divers réseaux sociaux et dans l’établissement de profils ultra-(ultra)-pointus : il leur suffit alors de personnaliser au maximum les messages politiques que l’on fait apparaître dans le newsfeed des électeurs pour tenter de les influencer. Il s’agit donc d’un réseau industriel de manipulation de l’information contre laquelle « l’éducation aux médias » ne pourra pas rivaliser.
Les évolutions technologiques qui ont cours préfigurent d’un futur encore plus menaçant pour la stabilité de nos sociétés. L’effondrement de la valeur de preuve de tout type de document ou de publication qui s’est constitué avec l’arrivée des fake news risque de connaître une accélération certaine au vu des progrès réalisés par les technologies de l’artefact, concomitants de l’essor de l’intelligence artificielle. Ces dispositifs ont été défini par Olivier Ertzscheid comme “des systèmes socio-techniques capables de créer des représentations volontairement altérées et artificielles de la réalité dans une recherche (une « mimesis ») de la vraisemblance”. Selon lui, il ne peut y avoir de société sans documents ayant valeur de preuve ; et il ne peut y avoir de valeur de preuve sans intégrité documentaire. Les progrès réalisés par les technologies de face swapping font déjà circuler des vidéos qui font dire des choses à Barack Obama des choses qu’il n’a jamais dites. En parallèle, l’expansion progressive des logiciels de rédaction automatique d’articles, pour l’instant cantonnés à des champs comme l’information immobilière ou financière, font craindre le pire à la futuriste des médias Amy Webb. Selon elle, des articles générés par ordinateur et basés sur les sentiments et l’émotion pourraient devenir la norme. En 2016 déjà, une expérience conduite sur une population d’étudiants concluait que “les sujets évaluent les articles écrits par des robots comme plus crédibles et meilleurs en termes d’expertise journalistique que les articles rédigés par des humains”. Hannah Arendt décrivait en 1973 et avec une acuité tout contemporaine l’effet dévastateur de la propagande : « Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges, mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce qu’il vous plaît. »
Eric Scherrer, Directeur de la prospective chez FranceTV : “J’ai une certitude : les fake news constituent un danger majeur pour la démocratie. C’est un des phénomènes les plus disruptifs qui soient arrivés à nos sociétés.”
Anonyme
Sources :
- Le JDD, le 30 décembre 2012, Interview de Michel Serres
- Dictionnaire Collin’s 2017
- Michel Foucault, Politique Hebdo 1976
- Hannah Arendt, La crise de la culture
Crédit photo : Le Huffington Post