Entre les toasts, tintements des verres, poignées de main, accolades et rires, un sujet très sérieux a retenu l’attention au cocktail annuel de la magistrature...
Un sujet sérieux et omniprésent par les temps qui courent: l'intelligence artificielle. Et son avènement inquiète la juge en chef du Québec, Nicole Duval Hesler, présidente d'honneur de ce cocktail annuel, organisé par l'Association du Jeune Barreau de Montréal.
L'événement mondain, qui regroupe plusieurs grandes pointures de la magistrature québécoise invitées à échanger avec les nouveaux avocats, a regroupé près de 200 personnes au Musée Pointe-à-Callière, mercredi soir à Montréal.
Si le droit peut tirer profit des avancées de l'intelligence artificielle, cette dernière n'en comporte pas moins des risques importants, a dit la juge Duval Hesler en substance.
Celle qui été des premiers balbutiements du tribunal fédéral des droits de la personne, un « comité ad hoc créé avant même que la Charte n'existe », a livré des observations émues relativement aux risques que constitue le recours aux algorithmes dans le système de justice.
L'intelligence artificielle, soit la capacité des machines à réaliser des tâches réfléchies, repose notamment, en droit, sur la capacité d'algorithmes de faire des prévisions basées sur l'apprentissage.
« On peut d'abord s'inquiéter du respect de la vie privée », a expliqué la première femme juge en chef du Québec. Déjà, l'ubiquité des technologies permettant tant la cueillette d'informations personnelles que la reconnaissance faciale pose des défis quant au respect de la vie privée, a soutenu la grande patronne de la Cour d'appel.
Même si on peut se réjouir des avancées permises par l'IA, il faut se garder d’un excès de zèle, a dit Nicole Duval Hesler. « C'est une boîte de Pandore dont il sera difficile de refermer le couvercle », a-t-elle déclaré.
D'où l'importance pour les juristes de garder l'oeil ouvert contre de possibles dérives de l'utilisation de l'IA.
Préjugés et discrimination
Citant les États-Unis en exemple pour illustre le genre de problèmes auxquels un état de droit peut s'exposer en ayant une trop grande confiance envers la technologie, Nicole Duval Hesler a dit s'inquiéter des à priori qui alimentent l'IA.
« On le sait, je n'invente rien, la discrimination est souvent présente », a-t-elle dit.
Ainsi, un système qui est déjà discriminatoire pourrait bien devenir pire de par le recours à l'IA. « On s'en sert déjà pour prévoir le risque de récidive ou pour la prévision de crimes. »
C'est une pratique qui pourrait bien jouer contre les populations vulnérables du système de justice, comme les minorités.
« Un homme noir qui conduit une voiture de luxe est presque systématiquement assuré d'être arrêté par les policiers », a-t-elle fait valoir, ajoutant que c'est ainsi que les algorithmes sont alors « entachés d'un grand risque discriminatoire ».
« Si on a des algorithmes dont les bases statistiques sont déjà discriminatoires, que risque-t-il d'arriver? », a-t-elle demandé au parterre de juristes réunis pour l'occasion.
« Bien naïf celui qui s'imagine être exempt de tout biais défavorable. On parle ici de référentiels de valeurs, ancrés en nous depuis notre enfance. »
D'où l'importance de bien baliser, de bien encadrer le recours à l'IA. Car si la machine est neutre, ce qu'on y insère pour générer des prévisions est encore trop souvent le résultat d'une sélection subjective. Faisant courir le risque que la technologie ne perpétue la discrimination.
Jeune ou moins jeune
Merci au Jeune Barreau de Montréal pour ce choix de thème. Il est temps d'en parler et d'échanger à ce sujet. Intéressant d'avoir le point de vue de la juge en chef. Félicitations pour l'initiative lors de ce traditionnel cocktail qui permet également d'obtenir de précieux conseils de juges dans un contexte informel.
AI
It's impressive to see how little this judge knows about AI.
The issue with bias are judges rendering bad decisions, not algorithms. There have been techniques put in place for years to remove direct and indirect biases from data sets (ex. Race, gender, etc.) and therefore from AI algorithms.
I wish people, and judges especially, would render opinions based on fact and science rather then misinformation and bias.
Remarque
Votre commentaire doit être approuvé par un modérateur avant d’être affiché.
NETiquette sur les commentaires
Les commentaires sont les bienvenus sur le site. Ils sont validés par la Rédaction avant d’être
publiés et exclus s’ils présentent un caractère injurieux, raciste ou diffamatoire. Si malgré
cette politique de modération, un commentaire publié sur le site vous dérange, prenez
immédiatement contact par courriel (info@droit-inc.com) avec la Rédaction. Si votre demande
apparait légitime, le commentaire sera retiré sur le champ. Vous pouvez également utiliser
l’espace dédié aux commentaires pour publier, dans les mêmes conditions de validation, un droit
de réponse.
Avocat
il y a 7 ansMerci au Jeune Barreau de Montréal pour ce choix de thème. Il est temps d'en parler et d'échanger à ce sujet. Intéressant d'avoir le point de vue de la juge en chef. Félicitations pour l'initiative lors de ce traditionnel cocktail qui permet également d'obtenir de précieux conseils de juges dans un contexte informel.
Anonyme
il y a 7 ansIt's impressive to see how little this judge knows about AI.
The issue with bias are judges rendering bad decisions, not algorithms. There have been techniques put in place for years to remove direct and indirect biases from data sets (ex. Race, gender, etc.) and therefore from AI algorithms.
I wish people, and judges especially, would render opinions based on fact and science rather then misinformation and bias.