Le média en ligne des médias en ligne

Les écrans

Le média en ligne des médias en ligne

La vertu, ça se code?

Publié le 08/06/2020 | par Gabriel Provost

Du choix de la voix d’Alexa à la recherche par couleur de peau sur Grindr, les algorithmes du monde moderne sont-ils des parangons de vertu ?

Martin Gibert morale robots
Photo : Markus Spiske | Unsplash

Martin Gibert, chercheur en éthique de l’intelligence artificielle à l’Université de Montréal, s’est penché sur la question dans son plus récent essai, Faire la morale aux robots (Atelier 10). Entrevue.

« En général, les fabricants [d’assistants vocaux] vont choisir des voix féminines. Pourquoi ? Parce qu’on associe le féminin avec “ça me rend service”… »

-Martin Gibert

Sur quels aspects de la morale à faire aux algorithmes se concentre votre essai ?

Martin Gibert : « Je me suis concentré sur deux exemples, essentiellement. Le premier est celui des voitures autonomes : comment on devrait les programmer en cas d’accident inévitable, alors que l’algorithme devra choisir entre tuer un enfant qui traverse la rue ou un vieillard, par exemple. L’autre exemple que j’utilise est celui des assistants vocaux. Il n’y a pas ici d’enjeux de vie ou de mort, mais encore une fois, il y a des enjeux moraux. »

« Pour donner un exemple très simple : quand on crée un assistant vocal de type Alexa, Siri ou Ok Google, quelle voix met-on par défaut ? Une voix masculine, féminine ou neutre ? En général, les fabricants vont plutôt choisir des voix féminines. Pourquoi ? Parce qu’on associe le féminin avec « ça me rend service ». En faisant cela, on renforce le biais comme quoi les femmes sont là pour servir les hommes, et, d’une certaine façon, qu’elles sont là pour servir tout le monde. »

Que peut-on faire pour empêcher ce genre de biais ?

« Dès qu’on a identifié le risque, il est assez facile de modifier les algorithmes. Dans le cas que je donne avec les femmes, il suffit de savoir qu’au sein de la société, il y a des problèmes de racisme et de sexisme. Ensuite, on peut être particulièrement vigilant et procéder à des tests pour s’assurer que l’IA ne reproduit pas ces problèmes. Le vrai risque, c’est plutôt qu’on n’y pense pas; qu’on fasse comme si l’IA ne pouvait pas se tromper parce qu’elle est objective et qu’elle fonctionne différemment du cerveau humain. »



En raison de la pandémie, Facebook a remplacé les milliers de personnes qui géraient son système de modération par des algorithmes. Que pensez-vous de l’idée de confier un tel système à des robots ?

« Facebook, à la base, c’est un algorithme. Peut-être ont-ils donné encore plus de pouvoir à l’algorithme, mais ça ne change pas le modèle. Quand les gens acceptent d’utiliser Facebook, j’imagine qu’ils acceptent que ce soit un algorithme qui contrôle ce qu’ils voient. Après, si on pense à YouTube, il y a tellement de vidéos qui sont téléchargés à chaque instant que je ne pense pas qu’ils ont le choix, s’ils veulent garder leur système tel qu’il est, de passer par des robots pour supprimer les vidéos qui sortiraient de leur code. C’est sûr qu’il y a tout de même des erreurs et ce sont des humains qui viennent vérifier dans ces situations particulières. »

Le fait que la modération soit contrôlée par un algorithme peut-il devenir dangereux ?

« Si c’était un humain, ce serait le cas aussi. Il y a énormément de nouvelles qu’on veut nous présenter, donc il faut faire une sélection. L’enjeu n’est pas tant de savoir si c’est un algorithme qui fait tout cela, mais plutôt s’il y a des critères avec lesquels on pourrait être en désaccord. »

« J’ai vu un exemple dernièrement à propos de Grindr, une application de rencontre pour les gais. Ils empêchent maintenant les recherches par origine ethnique. Jusqu’à présent, on pouvait choisir seulement des personnes d’origine asiatique ou des personnes de couleur noire, ou encore ne pas en vouloir. Mais la race est considérée comme un critère important pour faire une rencontre. Quand c’est positif, on peut penser que ce sera plus simple s’il y a seulement certaines personnes dans la recherche. À l’inverse, la personne qui ne veut simplement pas coucher avec des personnes asiatiques présente des notions de racisme systémique ou de racisme non conscient. Elle n’est pas raciste de façon revendiquée. N’empêche que son comportement alimente la dévaluation des personnes et qu’elle fait partie du problème en recherchant par critère ethnique. »

Auriez-vous des exemples de critères avec lesquels vous êtes en désaccord ?

« Il y a plein de critiques et de reproches à faire aux algorithmes, mais le principal, me semble-t-il, est lié à la captation de l’attention. L’algorithme de Facebook, par exemple, est pensé pour montrer des choses qui captent notre attention, pour qu’on reste sur la plate-forme le plus longtemps possible. Très souvent, on aurait mieux à faire que de rester sur Facebook ! L’algorithme de YouTube est sans doute un meilleur exemple. À une certaine époque, YouTube faisait exprès d’aller chercher les choses les plus stimulantes pour attirer l’attention, des choses qui n’étaient pas forcément vraies. Toutes ces vidéos de théories du complot, c’est stimulant, mais c’est une perte de temps et c’est même dangereux…. Avec l’éthique des algorithmes, il n’y a pas forcément de règles générales, si ce n’est que les algorithmes doivent faire le bien (ce qui reste très flou)… »

Comment établissez-vous les critères qui font un bon cadre éthique pour un algorithme ?

« En gros, il y a trois théories morales utilisées en éthique que j’ai appliquées à des robots pour voir laquelle serait la meilleure. On a la théorie de l’éthique de la déontologie, qui implique de respecter certaines normes. Il y a des théories conséquentialistes, où l’on s’intéresse aux conséquences des actions des humains ou des robots. Enfin, la théorie de l’éthique de la vertu dit que la bonne chose à faire est ce que ferait une personne vertueuse dans une situation similaire. L’idée que je propose serait d’entraîner les robots en leur donnant comme exemples des personnes vertueuses. C’est un type d’IA qu’on appelle « par apprentissage supervisé », où l’algorithme apprend à partir d’exemples. En passant par l’éthique de la vertu, on a une sorte d’adaptabilité qui est moins présente dans les autres théories morales. »


Faire la morale aux robots : une introduction à l’éthique des algorithmes, par Martin Gibert
publié chez Atelier 10 | mai 2020


Les plus lus sur Les Écrans :

Gabriel Provost

Laisser un commentaire

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *