Aller au contenu principal
RBC
Le Canada pourrait avoir un avantage concurrentiel dans l'avancement de l'intelligence artificielle pour le bien commun.

Notre groupe de leadership avisé examine les incidences sociétales et éthiques de l’intelligence artificielle. Dans le cadre de cette série d’entrevues, John Stackhouse discute avec Foteini Agrafioti, scientifique en chef de RBC et chef de Borealis AI, l’Institut de recherche en intelligence artificielle de RBC. Leur conversation a été éditée afin de la raccourcir et d’en clarifier le contenu.

John : Pouvez-vous nous donner un exemple de secteur dans lequel vous avez constaté l’existence de préjugés en IA ?

Foteini : L’un des exemples les plus intéressants à mes yeux concerne les préjugés liés au sexe dans le moteur de traduction de Google. Je ne l’aurais pas remarqué immédiatement auparavant, ce qui montre à quel point notre compréhension en la matière a évolué. Je fais allusion ici à la façon dont nous traduisions précédemment les textes d’une langue à une autre en établissant une correspondance mot à mot, disons de l’anglais vers le français.

Lorsque l’apprentissage machine s’est répandu, nous avons toutefois changé notre approche. Nous avons chargé plusieurs longs textes en anglais et en français dans des réseaux profonds, puis avons essentiellement commandé aux machines d’apprendre de quelle façon les deux langues correspondent. L’efficacité de la traduction a alors fait un bond spectaculaire, au-delà de ce à quoi la communauté scientifique s’attendait.

Par contre, nous n’avions pas anticipé que les documents intégraient des préjugés quant à la représentation des sexes. Nous n’avions pas prévu non plus que les machines apprendraient et perpétueraient ces préjugés. Pour donner un exemple type de ce phénomène, imaginez que vous demandez à la machine de traduire de l’anglais vers le français un texte dans lequel il est question d’une femme médecin et d’un homme qui travaille comme infirmier. La machine confondra les sexes, car elle a appris que les médecins sont majoritairement des hommes et que le personnel infirmier compte une majorité de femmes.

Si on analyse le problème, on constate que les préjugés existent déjà dans les données. Ils sont intégrés aux données réelles recueillies par de vraies personnes sur de véritables individus.

John : En tant que scientifique, comment abordez-vous cette situation ?

C’est un problème complexe. Si on analyse le problème, on constate que les préjugés existent déjà dans les données. Ils sont intégrés aux données réelles recueillies par de vraies personnes sur de véritables individus. Dans plusieurs cas, ces préjugés rendent tout simplement compte de notre vie courante et de toutes les structures sociales qui existent pour préserver l’intégrité de nos sociétés, pour le meilleur et, malheureusement, pour le pire. Ils ne résultent pas nécessairement de l’action d’intervenants mal intentionnés qui tirent les ficelles. Les gens de Google qui ont conçu le système de traduction sont de bons êtres humains. Ce phénomène n’est pas le fruit d’une action délibérée de leur part. Il résulte simplement des préjugés intégrés à la plus précieuse ressource dont nous disposons.

La première étape consiste donc à être sensibilisé à ce risque préexistant. Nous ne devons pas tenir pour acquis que les données constituent une entité objective, et je crois que les entreprises commencent à admettre que c’est bien le cas. Nous devons reconnaître que l’IA est une technologie qui nous permet de transformer nos activités, mais nous expose aussi à une toute nouvelle catégorie de risques. Nous sommes en mesure d’anticiper certains de ces risques, mais devons garder à l’esprit que plusieurs d’entre eux peuvent nous prendre par surprise. En d’autres mots, disons que nous ne savons pas ce que nous ignorons, du moins pour l’instant. Jusqu’à ce que nous soyons mieux informés en la matière, il est donc essentiel que nous disposions d’un plan de rechange concernant la façon dont nous allons anticiper et atténuer ces risques.

John : La biométrie constitue l’un des domaines émergents en ce qui a trait aux préjugés. Que devons-nous comprendre concernant les risques de préjugés en matière de biométrie ?

Foteini : Depuis toujours, la sécurité biométrique est un domaine très sensible. Par définition, les données biométriques comportent des éléments qui permettent d’identifier des individus et qui sont extrêmement sensibles si leur confidentialité est compromise.

L’IA a apporté à ce domaine un niveau d’exactitude sans précédent dans l’authentification des humains selon des paramètres biométriques. La reconnaissance faciale en est un exemple. Dans le mode classique de fonctionnement des systèmes d’identification biométrique, la reconnaissance faciale ne pouvait produire des résultats positifs de façon uniforme que si l’expression faciale du sujet était toujours la même. Pour assurer l’uniformité des données, le sujet ne devait pas se faire pousser une barbe ni se maquiller.

Maintenant, avec l’apprentissage profond, toute cette vulnérabilité est tolérable. Même si vous vous faites pousser la barbe ou changez votre coupe de cheveux, les systèmes peuvent tout de même vous reconnaître.

En plus du caractère sensible des données, nous devons aussi nous soucier des préjugés. Les systèmes de données sont affectés par une sous-représentation systémique de ce qu’on appelle les groupes ethniques. La technologie de reconnaissance est très puissante, mais des incohérences dans le nombre de couleurs de peau rendent les algorithmes inefficaces pour certaines personnes ou font en sorte qu’ils choisissent systématiquement des origines ethniques particulières.

À San Francisco, les autorités municipales ont clairement mis la sécurité du public à l'avant-plan, malgré les nombreuses applications utiles de la technologie. Il s'agit d'une décision extrêmement importante.

John : Un peu plus tôt au cours du mois, San Francisco est devenue la première grande ville à interdire l’utilisation de la technologie de reconnaissance faciale par des agences gouvernementales municipales. Que pensez-vous de cette décision de la part de l’une des villes les plus technologiquement évoluées au monde ?

Foteini : En ce qui concerne la décision de la ville de San Francisco, ce type de dilemmes éthiques est un exemple des éléments qui doivent alimenter nos réflexions, tant dans les secteurs public que privé.

En ce qui me concerne, il s’agit d’une décision louable et audacieuse, qui reconnaît que la technologie présente des risques et qu’on doit éviter de se lancer tête baissée dans son exploitation sans réfléchir aux abus potentiels qu’elle pourrait engendrer. Les autorités ont clairement opté pour la sécurité du public avant toute autre considération, malgré les nombreuses applications utiles de cette technologie. La Ville a décidé de prendre du recul et d’établir une limite à ne pas franchir. C’est vraiment une décision d’une portée monumentale.

John : Par contre, si l’utilisation de mesures de contrôle plus restrictives se généralise, que devrons-nous accepter de laisser tomber en tant que citoyens et consommateurs ?

Foteini : Les systèmes biométriques offrent généralement des avantages en matière de sûreté et de simplicité d’utilisation.

Un cas très intéressant d’application de ces technologies s’est présenté il y a quelques années en Ontario, où les exploitants de casinos ont mis en œuvre des systèmes de reconnaissance faciale pour repérer systématiquement les personnes présentant des problèmes de jeu et leur interdire l’accès aux établissements. Les individus concernés devaient s’inscrire volontairement sur une liste d’exclusion, autorisant du même coup le personnel de sécurité des casinos de l’Ontario de leur interdire l’accès s’ils se présentaient dans l’un de ces établissements. Graduellement, cette liste est devenue extrêmement volumineuse. Les agents de sécurité ne parvenaient pas à mémoriser les visages de toutes les personnes à refouler. La technologie de reconnaissance faciale a alors été déployée comme outil potentiel pour reconnaître les personnes ciblées et les empêcher d’accéder aux casinos. Cette décision a soulevé à l’époque un enjeu très important en matière de protection des renseignements personnels, et je pense que le commissaire à la protection de la vie privée a fait un travail remarquable pour déterminer comment assurer le respect de la confidentialité dans ce contexte.

John : Quels sont les risques que d’autres pays, plus particulièrement la Chine, progressent beaucoup plus rapidement sur le plan scientifique, parce qu’ils ne sont pas soumis aux mêmes types de restrictions en matière de droits individuels ou n’entretiennent pas de préoccupations à ce sujet ?

Foteini : Eh bien, je veux croire qu’ils se soucient de ces questions. Je constate aussi qu’à l’échelle mondiale, la communauté scientifique exerce des pressions pour orienter généralement la conception, le déploiement et l’adoption de ces systèmes. Mais si ce n’est pas le cas et qu’on se permet de faire ce qu’on veut, on dispose de bien plus qu’une simple avance. On gagne une très grande longueur d’avance.

Que penser de la possibilité d’accéder aux données, de mettre des systèmes à l’essai, de les déployer dans ces contextes réels, d’obtenir de la rétroaction et d’isoler des systèmes, sans aucune contrainte ni considération pour les conséquences néfastes potentielles ? Si je disposais de telles conditions, avec la possibilité de déployer un système de surveillance et d’en tirer des données et des conclusions, je pourrais acquérir beaucoup plus de connaissances sur les méthodes permettant de mettre au point de meilleurs systèmes de surveillance.

John : Cela me suggère une analogie concernant des athlètes qui doivent se mesurer à des concurrents issus de pays où l’on encourage l’usage de stéroïdes. Je ne sais pas si cette comparaison est adéquate. Cependant, en tant que scientifique, avez-vous l’impression de perdre du terrain comparativement à vos collègues chinois ?

Foteini : Je tente généralement de voir le côté positif des choses.

L’une des grandes réalisations de la communauté universitaire, particulièrement dans les domaines de l’apprentissage machine et de l’informatique, a été la mise sur pied d’exigences obligeant la réalisation de tests et d’essais pour étalonner et éprouver tout nouveau système d’apprentissage machine de pointe à l’aide d’un jeu de données public. Nous appliquons donc tous la même norme. De plus, les scientifiques sont tenus de rendre des comptes à ce sujet.

Les préjugés sont des problèmes très difficiles à résoudre. En outre, dans plusieurs cas, il n'est pas judicieux d'y chercher des solutions. Certains préjugés ont des conséquences positives.

John : Selon vous, la communauté de l’IA pourra-t-elle relever les défis soulevés par la collecte des données, auxquels vous avez fait allusion, et par le codage initial des algorithmes, afin d’en éliminer les préjugés dans une mesure raisonnable ?

Foteini : Honnêtement, c’est difficile. Je ne tiens pas à être pessimiste, mais c’est un problème très difficile à résoudre.

En outre, dans plusieurs cas, il n’est pas judicieux d’y chercher des solutions. Certains préjugés ont des conséquences positives.

John : Donnez-nous un exemple.

Foteini : Examinons par exemple les décisions que nous prenons lorsque nous conduisons un véhicule. Je sais qu’on discute constamment de véhicules autonomes responsables. Par contre, ce sont parfois les préjugés humains qui nous évitent des accidents, comme dans le cas d’un conducteur qui a tendance à rouler sous la limite de vitesse quand le pavé est mouillé ou pour négocier un virage.

Dans le secteur des valeurs mobilières, on peut aussi imaginer un système qui effectue des transactions de façon uniforme ou, à l’inverse, un système fondé sur l’intuition particulière d’un spéculateur extrême. C’est un domaine dans lequel un préjugé peut être utile.

Ce qui est merveilleux, au Canada, c'est que la plupart des données dont nous disposons sont intrinsèquement très diversifiées.

John : Cette approche en matière de préjugés offre-t-elle un avantage concurrentiel à RBC de même qu’au Canada ?

Foteini : Ce qui est merveilleux, au Canada, c’est que la plupart des données dont nous disposons sont intrinsèquement très diversifiées. Par exemple, si vous construisez la prochaine génération de systèmes diagnostiques fondés sur la technologie IRM et que vous utilisez des données recueillies au Canada, il est fort probable que les différents groupes ethniques y soient très bien représentés. C’est notre avantage local.

L’autre aspect qui nous distingue et fait partie des valeurs canadiennes est notre respect et notre tolérance mutuels. Je crois aussi que nous appliquons une optique très critique à l’égard des technologies issues de l’IA et de leurs effets potentiels sur notre société. Je pense que nous avons un degré de tolérance moins élevé à l’égard des risques inhérents à leur intégration dans nos vies. Nous sommes critiques à leur égard, et c’est une excellente attitude. Ce type de pressions est parfois nécessaire pour inciter la communauté scientifique de même que les entreprises à prendre la bonne orientation lors du développement de nouvelles technologies.

John : C’est très intéressant, Foteini. Merci.

Foteini : Très bien, merci.