Le média en ligne des médias en ligne

Les écrans

Le média en ligne des médias en ligne

Facebook à l’ère de la modération artificielle

Publié le 20/05/2020 | par Steve Proulx

Depuis le début de la pandémie, Facebook a confié donné l’IA la tâche complexe d’assurer la modération des contenus partagés par ses 2,6 milliards d’utilisateurs.

Modération - Facebook
Illustration : jolygon | Adobe Stock

Ces dernières semaines, Facebook a retiré le crachoir au chroniqueur Richard Martineau pour avoir dit qu’« aucun homme dans l’histoire n’avait accouché ». Puis, ce fut au tour de l’actrice-conspirationniste Lucie Laurier de recevoir une « amende » de Facebook. Il lui a été impossible de partager ses théories anti-vaccination pour une période de 24 heures.

Au Royaume-Uni, la page Facebook du roi des théoriciens du complot, David Icke, a été retirée. La raison : diffusion de fausses informations potentiellement dangereuses pour la santé. Fin avril, Facebook a aussi retiré de sa plate-forme des événements qui ne respectaient pas les règles de distanciation physique. Dans le lot, des manifestations anticonfinement organisées en Californie, au New Jersey et au Nebraska.

Ce n’est pas d’hier que Facebook déploie des efforts pour purger de sa plate-forme les propos haineux, explicites ou les fausses nouvelles.

Cela dit, contrôler les dérapages de 2,6 milliards d’utilisateurs est un défi inédit. Jamais, dans l’histoire de l’humanité, une organisation n’a eu à surveiller autant de faits et gestes.

Facebook : la modération a bien mauvais goût

Jusqu’ici, les activités de modération sur Facebook étaient menées par une armée d’humains — environ 15 000 répartis dans une vingtaine de centres à travers le monde. Chaque jour, huit heures par jour, ces gens devaient examiner des millions de contenus potentiellement haineux, de photos obscènes, d’élucubrations dangereuses, etc., et décider en quelques secondes si ces contenus méritent ou non la censure.

Or, des enquêtes récentes ont levé le voile sur le moral de ces troupes dédiées à cette tâche.

En février 2019, le site The Verge ouvrait le bal. Plusieurs employés d’un sous-traitant de Facebook, à Phoenix en Arizona puis à Tampa en Floride, brisaient la clause de confidentialité de leur contrat de travail pour parler de leur quotidien aux premières loges du pire de l’humanité. En septembre dernier, le quotidien britannique The Guardian recueillait pour sa part les confidences d’autres anciens employés ayant travaillé dans des centres de modération de Facebook à Berlin.

On y apprend quoi ? Que le fait de voir défiler des images de meurtres, de suicides, de pédophilie, des fausses nouvelles… ça laisse des séquelles.

Certains de ces modérateurs auraient développé une « dépendance » au contenu explicite (graphic content), gardant même pour leur collection personnelle les images les plus choquantes qu’ils ont eu à traiter. D’autres ont fini par embrasser des idées d’extrême-droite à force d’avaler les contenus haineux ou les fausses nouvelles. La toxicomanie est une échappatoire pour plusieurs. En raison des contenus troublants qu’ils ont dû encaisser, des modérateurs ont été diagnostiqués du syndrome de choc post-traumatique. D’autres ont maintenant si peur du monde dans lequel nous vivons qu’ils dorment avec un revolver à portée de main.

Il y a quelques jours, Facebook a accepté de payer un montant de 52 millions de $ en compensation aux modérateurs de contenus (actuels et passé) qui auraient développé des problèmes de santé mentale à cause de leur travail. Un règlement qui touchera environ 11 000 modérateurs, d’abord en Arizona, en Floride, en Californie et au Texas.



Et puis, la pandémie…

Au début de la pandémie de COVID-19, comme l’a rapporté le Washington Post, Facebook a pris la décision de fermer complètement ses centres de modération. Les quelque 15 000 modérateurs humains ont donc été remerciés, renvoyés à la maison.

Depuis, les algorithmes ont pris le relais pour se charger du gros de ce sale boulot.

Or, c’était à prévoir : ce modérateur artificiel connaît des ratés. Car, naviguer entre la liberté d’expression et la nécessité d’empêcher l’intimidation, l’intolérance et le cancer de la désinformation est un exercice qui vient avec son monde de nuances.

Le patron de Facebook Mark Zuckerberg l’a lui-même admis : « Les utilisateurs doivent s’attendre à plus d’erreurs [de la part de l’algorithme de modération], car ils prennent des décisions plus tranchantes que les humains. » Il a même reconnu que des contenus pourraient être supprimés par erreur.

C’est déjà arrivé. Facebook refuse que des entreprises profitent de la pandémie pour vendre des masques sur sa plate-forme. Or, le système d’intelligence artificielle a tout de même bloqué des contenus d’une entreprise qui a partagé des façons de fabriquer un masque soi-même.

La modération : une trop importante responsabilité pour Facebook ?

Plusieurs journalistes et experts le répètent depuis le début de la pandémie : la COVID-19 changera le monde pour longtemps.

L’intelligence artificielle appelée en renfort pour jouer la police de Facebook comptera peut-être parmi ces « nouvelles réalités » post-COVID.

Dans une certaine mesure, c’est une bonne chose. L’intelligence artificielle a, certes, le potentiel d’éliminer des emplois. Mais lorsqu’elle élimine des emplois clairement toxiques, c’est très bien.

Cela dit, il s’agit encore d’une portion de nos vies que nous confions à des algorithmes. Désormais, sur Facebook, c’est un système d’intelligence artificielle qui déterminera qui peut s’exprimer et de quelle manière. Le tout selon des principes généraux pleins de bonne volonté, mais appliqués par une société qui a d’abord des comptes à rendre à ses actionnaires.

Est-ce collectivement ce que l’on souhaite ?

+

Facebook announces plan to label newsworthy posts that break rules, Global News (26/06/2020)

Médias sociaux: modération plus difficile du contenu durant la pandémie, Le Soleil (07/06/2020)

Social Media’s Dirty Secret, CMS Wire, (15/06/2020)


Steve Proulx

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *