Sur les réseaux sociaux, les fausses informations ( rumeurs, #infox ) se diffusent bien plus vite et plus longtemps que les vraies. Et leur structure de propagation n’est pas la même. En se fondant sur ces caractéristiques, les chercheurs en sciences computationnelles conduisent des projets d’intelligence artificielle visant à détecter automatiquement ces « fake news ».

Source larecherche.fr 

Au mois de mai 1969, la ville d’Orléans est le théâtre d’une sinistre affaire criminelle. Une jeune femme, venue essayer des vêtements dans un magasin, se fait insidieusement endormir par une aiguille imbibée de sédatif que le gérant avait dissimulée dans le col d’un vêtement. La victime est d’abord séquestrée dans l’arrière-boutique, avant de disparaître mystérieusement. Et des dizaines de femmes seraient déjà tombées dans ce piège sournois, plusieurs boutiques de la ville étant impliquées dans ces enlèvements. Pire encore, la police et les pouvoirs publics seraient de mèche avec les criminels ! Comble de cette conspiration, les victimes auraient été transportées hors de la ville par un souterrain, avant d’être conduites à l’étranger pour alimenter un vaste réseau de prostitution.

Rassurez-vous, cette histoire rocambolesque n’est qu’une fausse rumeur qui s’est propagée dans la cité johannique. Aucune femme n’a été enlevée ni séquestrée. De par son intensité et sa diffusion rapide, la « rumeur d’Orléans » a attiré l’attention de nombreux scientifiques de l’époque. Des sociologues comme Edgar Morin y voyaient une rare opportunité de pouvoir enfin comprendre comment naissent et se propagent les fausses informations (1). Cinquante ans plus tard, ces mêmes chercheurs ne savent plus où donner de la tête, car nous sommes aujourd’hui entrés de plain-pied dans l’ère des fausses nouvelles (fake news en anglais). À l’heure d’Internet et des réseaux sociaux, l’information se propage – littéralement – à la vitesse de la lumière. En quelques minutes, le monde entier est informé qu’un tremblement de terre s’est produit en Indonésie, ou dupé par une fake news affirmant que le pape François soutient le candidat Donald Trump lors des présidentielles américaines.

Suivi en direct

La façon dont les chercheurs étudient ces rumeurs a également évolué. Alors que des jours d’investigation furent nécessaires à l’équipe d’Edgar Morin pour reconstituer péniblement la chronologie de la rumeur d’Orléans, les scientifiques peuvent maintenant suivre en direct la diffusion de milliers d’informations sur le Web, tout en sirotant un café devant leur ordinateur.

Que sait-on aujourd’hui de ce phénomène ? Sur Internet, l’information se propage vite, certes, mais pas facilement. Des chercheurs, tel le spécialiste en sciences computationnelles Jure Leskovec, de l’université américaine Stanford, ou le sociologue Duncan J. Watts, de Microsoft Research, l’ont montré en comptant le nombre de fois où une information publiée par un utilisateur sur Facebook ou Twitter est partagée par ses amis, puis par les amis de ses amis, et ainsi de suite jusqu’au dernier maillon de la chaîne de propagation. Cette succession de transmissions est appelée une cascade – et les chercheurs en ont analysé des dizaines de millions ! En fait, la grande majorité des informations introduites sur les réseaux sociaux ne se propagent tout simplement pas. Sur Twitter, 93 % des messages ne sont jamais partagés et 6,5 % ne le sont que par trois amis ou moins, avant de disparaître. Ainsi, les cascades ne représentent que 0,5 % des messages publiés sur le réseau social à l’oisillon bleu. Nous sommes donc bien loin des propagations massives que l’on s’imagine parfois. Comme le dit Duncan J. Watts : « La plupart du temps, il ne se passe rien, et la plupart du temps restant, il ne se passe pas grand-chose. »

La propagation à grande échelle est donc un phénomène extrêmement rare. Paradoxalement, elle est aussi très visible. En effet, les cascades importantes impliquent nécessairement un très grand nombre d’individus et ont donc de fortes chances de nous atteindre. Lada Adamic, spécialiste de la science des réseaux chez Facebook, estime ainsi que chaque image que nous voyons sur ce réseau social a une chance sur deux d’être le fruit d’une cascade de propagation impliquant plus de 500 personnes… alors qu’elles ne se produisent que 0,001 % du temps !

Dans une étude de 2015, l’équipe de Duncan J. Watts s’est intéressée spécifiquement aux grandes cascades sur Twitter impliquant au moins 100 personnes. Les chercheurs ont dû, pour cela, en collecter 1 milliard, parmi lesquelles « seulement » 220 000 avaient une taille suffisante. Leurs résultats ont mis en évidence que ces cascades ne sont pas toutes identiques. Certaines ont une structure plutôt horizontale, c’est-à-dire que la propagation s’effectue surtout par un grand nombre de personnes directement connectées à l’initiateur de l’information, mais peu par les contacts de ces personnes ; c’est le cas, par exemple, lorsqu’une célébrité divulgue une information qui n’intéresse que ses fans. D’autres cascades, en revanche, ont une structure plutôt verticale : l’information circule par transmissions successives (des personnes en lien direct avec l’émetteur de l’information, puis des relations de ces personnes) ; c’est ce qu’il se passe avec les photos de chats sur Facebook, qui sont souvent partagées de manière répétée.

L’une des découvertes les plus marquantes de ces dernières années est que la structure d’une cascade est révélatrice du type d’information qu’elle véhicule. Une fake news, par exemple, ne se propage pas de la même façon qu’un fait avéré. En 2018, Sinan Aral, économiste et expert du « marketing viral » au Massachusetts Institute of Technology, et son équipe ont analysé un échantillon de 126 000 rumeurs et informations, propagées sur Twitter entre 2006 et 2017 par environ 3 millions de personnes de langue anglaise. Les rumeurs concernaient principalement la politique (45 000 d’entre elles), mais aussi le terrorisme, la science, les catastrophes naturelles ou l’économie. Ses résultats font froid dans le dos. Les fausses informations (en particulier les fake news politiques) engendrent des cascades pouvant impliquer jusqu’à 100 000 individus, tandis que les vraies peinent à dépasser les 1 000 personnes. Autres enseignements de cette étude : les fausses informations se propagent environ six fois plus rapidement que les vraies, circulent pendant des durées plus longues et ont des structures plus verticales .

Ces différences structurelles pourraient-elles aider à discerner vraies et fausses informations, en examinant uniquement la façon dont elles se propagent ? C’est l’objectif de Soroush Vosoughi, à l’époque jeune docteur en sciences computationnelles au MIT (aujourd’hui professeur assistant au Dartmouth College et chercheur associé à l’université Harvard), qui a élaboré et publié en 2017 l’algorithme Rumor Gauge – un détecteur de fake news.

Celui-ci a été entraîné et testé sur 209 rumeurs, représentant un total de 938 806 tweets. Ces dernières concernaient des événements réels, tels que l’attentat à la bombe commis lors du marathon de Boston en 2013 ; les émeutes de Ferguson, dans le Missouri, en 2014, après qu’un jeune homme noir a été abattu par un policier blanc ; ou encore l’épidémie d’Ebola en Afrique de l’Ouest en 2014. Rumor Gauge a ainsi évalué la véracité des informations en observant la façon dont celles-ci se diffusaient sur le réseau social, avec un taux de succès de 75 % – des performances qui seront sans nul doute amenées à s’améliorer.

Mais d’où viennent les fausses informations ? Parfois, elles sont l’oeuvre d’un individu malveillant cherchant à s’enrichir ou à manipuler l’opinion publique. D’autres fois, en revanche, ce « patient zéro » n’existe pas. Les fausses rumeurs résultent souvent de la déformation progressive d’une information qui était initialement tout à fait exacte. Pensez par exemple au jeu du téléphone, dans lequel des enfants se font passer à tour de rôle une histoire, de bouche à oreille. Au bout de cette chaîne de communication, l’histoire qui émerge est souvent bien différente de l’originale.

C’est ce même processus de distorsion, que le psychologue britannique Frederic Bartlett a beaucoup étudié dans les années 1930 (lire encadré), qui est à l’oeuvre lors de la propagation d’une rumeur. Quel rôle ce biais de transmission joue-t-il dans notre quotidien ? En 2015, j’ai conduit, avec Henry Brighton et Wolfgang Gaissmaier, deux collègues de l’Institut Max-Planck pour le développement humain, à Berlin, une expérience similaire à celle de Frederic Bartlett.

Plutôt qu’une simple histoire, nous avons fait circuler dans nos chaînes une controverse concernant la possible dangerosité du triclosan – un perturbateur endocrinien (*) suspecté d’avoir de nombreux effets indésirables sur notre santé. Le premier participant était d’abord exposé à une collection de six documents reflétant divers points de vue sur le problème, dont une mise en garde de Greenpeace exagérant le risque associé au triclosan et une déclaration de marques de cosmétiques garantissant l’innocuité de la substance.

Nous avons identifié une liste de 61 éléments importants, de quatre types : « effets secondaires », « anecdotes personnelles », « localisation du triclosan », « autres ». Ce premier maillon de la chaîne a ensuite dû communiquer ces informations au participant suivant, qui n’avait pas été exposé aux documents initiaux, et ainsi de suite jusqu’à la dixième personne. Nous avons répété l’expérience à quinze reprises, avec des volontaires différents à chaque fois.

Le premier enseignement de cette étude est que l’information se déforme à toute vitesse. Après seulement trois transmissions, 52 % des informations communiquées par le premier maillon de la chaîne avaient déjà disparu et les éléments restants étaient fortement déformés. Comme pour l’expérience de Bartlett, la distorsion de l’information était biaisée : les participants qui avaient des préjugés négatifs sur le triclosan avant l’expérience ont eu tendance à rendre le message plus alarmant, tandis que ceux qui n’en avaient pas ont plutôt minimisé le risque. Ce biais est encore plus visible lorsque tous les maillons de la chaîne partagent les mêmes préjugés. Nous avons alors constaté que, progressivement, les informations contradictoires disparaissent, tandis que celles concordant avec l’avis des participants sont amplifiées. Au bout de la chaîne, cette dynamique conduit à un message renforçant le point de vue dominant du groupe.

Indices de fiabilité

Ces recherches pourraient nous affecter dans un futur proche. Il ne serait pas étonnant de voir apparaître des « indices de fiabilité » associés aux informations qui circulent sur les réseaux sociaux – les géants du Web, type Google ou Facebook, conduisent déjà des projets d’intelligence artificielle visant à détecter automatiquement de fausses informations. À plus long terme, l’observation de la circulation des informations et la modélisation de ce phénomène permettraient d’anticiper l’évolution de l’opinion publique et potentiellement de prédire l’émergence de mouvements populaires, tel celui des « gilets jaunes ».

Photo : © Durantelallera/Shutterstock

(*) Un perturbateur endocrinien désigne toute substance chimique susceptible de modifier le fonctionnement du système hormonal et de provoquer des effets nocifs pour la santé (notamment pour les capacités reproductives).

(1) Edgar Morin, La Rumeur d’Orléans, Seuil, 1969.


CHERCHEUR EN SCIENCES COGNITIVES
 Mehdi Moussaïd est spécialiste de la science du comportement des foules (« la fouloscopie »). Ses recherches concernent l’analyse du déplacement collectif des piétons, la contagion sociale (la propagation des comportements et des rumeurs) et l’intelligence collective.

Photo : DR

CONTEXTE

À l’heure d’Internet et des réseaux sociaux, l’information se propage à la vitesse de la lumière, littéralement. Cette déferlante s’accompagne d’une augmentation des fausses rumeurs, accentuant la nécessité de trouver des moyens de faire la distinction entre les vraies informations et les fake news.

LA DISTORSION DE L’INFORMATION, REFLET DE LA CULTURE ET DES PRÉJUGÉS


En 1931, le psychologue britannique Frederic Bartlett conduit une expérience semblable au jeu du téléphone. Le long d’une chaîne de transmission, ses participants doivent se faire passer un récit issu d’une ancienne légende d’Indiens d’Amérique. Résultat : l’histoire retransmise par les participants a tendance à se conformer progressivement à leur culture occidentale. Dans une autre expérience, visuelle cette fois, le psychologue examine comment se transforme un dessin lorsqu’il circule le long d’une chaîne de transmission. Là encore, il observe une distorsion : une représentation de masque africain devient un visage standardisé, un hiéroglyphe égyptien devient un chat. Ainsi, la déformation de l’information n’est pas aléatoire, mais reflète la culture et les préjugés des personnes qui la véhiculent.

Photo : © F. Bartlett / Cambridge University Press

POUR EN SAVOIR PLUS

Mehdi Moussaïd, Fouloscopie, humenSciences, 2019.

« Fouloscopie », la chaîne YouTube de Mehdi Moussaïd consacrée à la vulgarisation de la science du comportement des foules.