Les écrans

Le média en ligne des médias en ligne

Pièges technologiques et désinformation

Agence Science-Presse

Les algorithmes des moteurs de recherche ou les multiples fonctionnalités de partage des médias sociaux engendrent autant de pièges qu’il faut reconnaître afin d’éviter de propager de fausses nouvelles. En voici cinq.


Algorithmes

Le rôle des algorithmes

Les algorithmes, ce sont les suites d’opérations et de calculs qui régissent la manière de fonctionner d’un système. Sur les réseaux sociaux et dans les moteurs de recherche, on s’en sert entre autres pour personnaliser le contenu auquel l’usager est exposé et pour promouvoir les publications qui génèrent beaucoup de réactions. Les algorithmes y déterminent entre autres les publicités, les publications, les articles et les photos qu’on voit passer.

Prenons en exemple PageRank, l’algorithme qui trie les résultats apparaissant sur le moteur de recherche Google. La priorité des résultats sera déterminée en fonction de plusieurs facteurs, dont la langue de l’usager et son emplacement, la sécurité du site internet, l’optimisation du contenu pour les moteurs de recherche, la vitesse de chargement d’une page, la qualité du contenu et l’adaptation mobile.

Toutefois, le premier résultat n’est pas toujours celui qui répondra le mieux à nos besoins ou sera le plus approprié à notre recherche. Il se peut que du contenu très pertinent se cache sous les premiers résultats.

Selon une analyse effectuée en 2019 sur cinq millions de résultats de recherche Google, les internautes cliquent 10 fois plus sur le premier résultat que sur le dixième. Et si un résultat est déplacé d’une position vers le haut, son taux de clics augmente de 30,8 %. D’ailleurs, le premier lien affiché obtient 31,7 % des clics d’une page, qui contient 10 résultats.

Trois mots pour expliquer le phénomène : biais de position. Le biais de position est un biais cognitif qui fait en sorte qu’on privilégie l’information qui se situe au sommet d’une liste, peu importe sa valeur, son importance réelle. Inutile de dire que ça peut grandement limiter la valeur d’une recherche.

Personnalisation des résultats de recherche

La personnalisation du contenu 

Sur vos fils, les algorithmes donnent une priorité au contenu qui générera le plus d’intérêt, au lieu de tout montrer en ordre chronologique. Les photos, les vidéos et les publications qui apparaissent en premier ont donc été triées sur le volet pour chaque utilisateur. On choisit pour vous ce que vous voyez… et ce que vous ne voyez pas.

Ces algorithmes changent très souvent, mais voici ce que l’on sait sur Facebook, Instagram et YouTube.

Facebook détermine ce que l’usager voit en fonction de ses habitudes d’interactions (ce qu’il aime, ce qu’il lit, ce sur quoi il clique), du média utilisé dans la publication (photo, vidéo, direct) et de la popularité de la publication. Il se peut donc qu’un article pertinent, mais qui ne correspond pas à ce que vous lisez d’habitude, vous soit « caché ».

Instagram, qui appartient à Facebook, priorise le contenu publié par des comptes avec lesquels l’usager interagit fréquemment.

Les vidéos recommandées par YouTube ou celles qui apparaissent dans les résultats de recherche de la plateforme dépendent elles aussi de la relation entre l’usager et la source d’une vidéo. Si un usager aime déjà une chaîne YouTube et y passe beaucoup de temps, des vidéos du même créateur lui seront recommandées. Si un internaute s’est récemment intéressé à un sujet en particulier, des vidéos similaires apparaîtront dans ses résultats de recherche et dans ses recommandations. L’algorithme prend aussi en compte les données démographiques de l’usager.

Le biais de position peut aussi poser problème ici. Pensons à quelqu’un qui a vu passer la fausse information selon laquelle la COVID-19 n’était pas un problème majeur, à cause de ces vidéos montrant les urgences vides de certains hôpitaux. Si cette personne cherche simplement « COVID-19 hôpitaux » et qu’elle habite une région qui n’a pas été durement touchée par la pandémie, elle cliquera fort probablement sur l’un des premiers résultats, qui lui parlera de sa région. Elle ne cherchera pas plus loin. Dans ce cas-ci, le premier résultat n’est pas le plus pertinent.

Data Void

Le Data Void

Comme tous les moteurs de recherche, Google n’aime pas le vide. Et puisqu’il cherche à donner des résultats à une recherche, même s’il n’y en a pas de pertinents, certaines personnes mal intentionnées peuvent tourner la situation à leur avantage.

Le vide de données (Data Void en anglais) se produit quand il n’existe qu’une quantité très limitée de résultats de recherche pour un terme ou une nouvelle en particulier ou quand l’information disponible est peu sérieuse, trompeuse ou extrémiste. Ce vide informationnel est souvent exploité pour manipuler les résultats de recherche.

Par exemple, des groupes extrémistes se servent souvent des nouvelles de dernière heure pour diriger les internautes vers leur contenu. Celles-ci n’ont pas encore généré beaucoup d’articles sérieux, mais elles suscitent beaucoup de recherches.

L'effet de bulle

Bulle informationnelle

La bulle de filtres, c’est l’environnement intellectuel dans lequel les algorithmes peuvent enfermer une personne en lui proposant toujours du contenu susceptible de correspondre à ses valeurs, à ses croyances, à ses opinions et à ses idées. C’est le militant Eli Pariser qui a conceptualisé le phénomène.

N’entre pas dans la bulle qui veut. On a tendance à ignorer ou à bloquer tout ce qui nous choque, comme les arguments des partis politiques auxquels on n’adhère pas, les informations qui pourraient nous fâcher, et les données qui vont à l’encontre de nos croyances ou de nos idées préconçues. Et on clique davantage sur les informations qui confirment ce qu’on veut entendre. Certains algorithmes trient l’information qu’on voit passer et favorisent celles qui suscitent le plus d’engagement.

Par exemple, si une personne est déjà opposée à la vaccination avant la pandémie, elle verra probablement une grande quantité de publications trompeuses et négatives sur la recherche actuelle, mais peu de contenus scientifiques étoffés sur le sujet.

Ainsi, une grande partie de l’information disponible sur les médias sociaux nous est « cachée ». Plus que jamais, il est donc important de faire des efforts pour avoir accès à une panoplie d’informations qui reflètent tous les points de vue pertinents.

Partage instantané

Le partage instantané

Les nouvelles sur la COVID-19, qu’elles soient vraies ou trompeuses, se diffusent rapidement… Et on doit une partie de leur popularité aux fonctionnalités de partages instantanées.

Les boutons Retweet (Twitter) ou Partager maintenant (Facebook) sont des fonctions qui nécessitent peu d’efforts de la part de l’usager.

Quand on sait que le biais de confirmation nous pousse à croire rapidement à des informations qui confirment nos croyances, le partage instantané peut s’avérer dangereux.

Sur Twitter, les gens retweetent deux fois plus de fausses informations que de vraies informations, rapporte une étude du MIT. Une étude de l’Université Cornell conclut que, sur Reddit, 73 % des liens partagés sont notés positivement ou négativementavant d’être ouverts.

Attention, on peut facilement amplifier un message trompeur, dangereux.

Bonne nouvelle : Twitter a récemment commencé à tester une nouvelle fonctionnalité pour enrayer le problème. Si un internaute s’apprête à retweeter un article sans l’avoir ouvert, une notification lui demandera s’il ne préfère pas le lire avant de partager.


Cet article de Camille Lopez fait partie de la rubrique du Détecteur de rumeurs, cliquez ici pour les autres textes.

Il a été rédigé dans le cadre du projet conjoint Fédération professionnelle des journalistes du Québec/Agence Science-Presse Covid-19 : dépister la désinfo, lequel est financé par Patrimoine Canada.