ChatGPT, bientôt dans un tribunal près de chez vous?
Radio -canada
2023-12-01 11:15:00
Au Barreau du Québec, on ne ferme pas la porte à l'idée de recourir à ce type d'outils, mais on veut procéder avec précaution. Ainsi, selon la bâtonnière Catherine Claveau, « le dossier de l'IA fait partie de nos dossiers stratégiques de l'année ».
« On veut agir comme leaders en la matière », ajoute en entrevue Mme Claveau, qui dirige cet ordre professionnel chargé à la fois de réglementer la profession d'avocat au Québec et de protéger le public.
« Une de nos orientations stratégiques, au Barreau, consiste à réimaginer la profession d'avocat et à réformer le contrôle de son exercice dans le contexte de l'IA» justement afin de protéger la population, explique Me Claveau.
Cependant, repenser la profession d'avocat n'implique pas d'interdire carrément l'utilisation de ces nouveaux outils numériques. En fait, l'objectif du Barreau est plutôt l'inverse : il s'agit de faire la promotion de l'IA auprès des membres de l'organisation, puisque ChatGPT et consorts « peuvent constituer une valeur ajoutée pour les clients », affirme la bâtonnière.
De fait, ces logiciels et services spécialisés existent déjà, en partie, dans le domaine du droit : ils servent d'aide à la recherche dans la jurisprudence, notamment, « en utilisant des banques de données fiables, ce qui prend beaucoup moins de temps », souligne Me Claveau.
« Cela représente déjà une avancée extraordinaire comme outil de recherche », poursuit la bâtonnière avant de préciser que le Barreau encourage ses membres à demeurer à l'affût.
En fait, un certain flou entoure l'utilisation de l'IA dans un contexte juridique, la jurisprudence en place n'étant bien souvent pas adaptée à cette révolution technologique qui progresse très vite.
Aux États-Unis, les exemples de recours à des outils basés sur l'IA lors d'un procès abondent : en début d'année, le réseau CBS rapportait ainsi que la compagnie DoNotPay, qui devait utiliser un avocat « robot », soit un logiciel installé sur un téléphone intelligent, pour suggérer quoi dire à un défendeur qui contestait une contravention pour excès de vitesse, avait fait marche arrière après que son patron eut été menacé d'emprisonnement s'il allait de l'avant avec cette idée.
Cet automne, Politico a rapporté que le chanteur Pras Michel, un ex-membre du groupe The Fugees, avait accusé son ancien avocat d'avoir mal géré son dossier, dans lequel il était accusé et avait été condamné pour conspiration criminelle, « en utilisant un programme d'IA expérimental pour rédiger son plaidoyer final ».
S'attaquer à des problèmes... et respecter l'éthique
Au Québec, Me Claveau affirme que le développement et l'encadrement de l'IA s'articulent autour de trois grandes préoccupations : protéger les données personnelles, s'attaquer aux biais des outils d'IA et s'assurer que si ces outils de recherche et d'analyse se répandent, « la relève juridique sera malgré tout en mesure d'acquérir des compétences en la matière ».
Sans oublier d'assujettir ces outils au code d'éthique déjà en vigueur au sein de la profession.
La bâtonnière souligne aussi à plusieurs reprises lors de son entrevue qu'il est essentiel d'informer le public à propos des limites inhérentes à ce genre de systèmes.
Pour l'instant, par ailleurs, le milieu juridique ne s'attend pas à ce que des plaidoiries soient rédigées par l'IA : Dans les tribunaux à travers le Canada, on réfléchit à des directives et à des règles de pratique, indique encore Me Claveau.
La Cour supérieure s'est d'ailleurs penchée sur la question en envoyant à ses membres un avis qui, comme le précise la bâtonnière du Québec, n'a pas force de loi mais représente plutôt une mise en garde.
La Cour a ainsi exprimé ses préoccupations à propos de documents préparés par l'IA, souligne Me Claveau, qui mentionne que les contenus produits par l'IA, y compris les observations à propos de cas spécifiques, doivent pouvoir faire l'objet d'un contrôle rigoureux.
D'ailleurs, pour poursuivre son observation des outils et pour s'assurer d'être au fait des développements dans le domaine de l'IA, le Barreau a créé un poste de conseiller en technologie prédictive et en intelligence artificielle.
Ça nous prend quelqu'un qui a une expertise différente, qui va aider à coordonner notre réflexion, surveiller le développement de l'IA dans le milieu juridique, précise la bâtonnière.
Pas de robot plaideur... pour l'instant
Si le Barreau souhaite prendre son temps pour examiner en profondeur la question de l'utilisation de l'IA dans le domaine juridique, ce type d'outil est déjà employé dans des cabinets d'avocats, et pas seulement pour effectuer de la recherche plus rapidement.
Le groupe de propriété intellectuelle Lavery a ainsi annoncé, à la fin d'octobre, la création de son propre outil d'IA générative, conçu pour assister ses avocats et ses clients.
« Lorsque ChatGPT a pris son envol, les gens étaient évidemment curieux de voir ce qu'il pouvait faire et comment cela allait fonctionner. En tant que cabinet consciencieux, nous avons établi qu'il y avait une interdiction de l'utilisation de (cet outil) », mentionne en entrevue Benoit Yelle, agent de brevets agréé au Canada et aux États-Unis et associé au sein de ce cabinet.
« Nous étions alors très mal équipés pour évaluer le risque que cela pouvait représenter d'utiliser ChatGPT; (...) nous avons commencé à voir qu'il pouvait carrément halluciner des références ou des cas juridiques », ajoute-t-il.
« Le problème, c'est que puisque cela suscite la curiosité et que des gens y voient un avantage – pas nécessairement dans la pratique du droit, mais dans la formulation de certaines phrases, dans la formulation d'un plan de match pour s'occuper d'un sujet... Des fois, il faut simplement structurer ce à quoi nous réfléchissons. Nous nous sommes alors dit que si nous laissions l'interdiction en place, cela risquerait de faire en sorte que les employés l'utilisent de leur côté. »
Pour Lavery, pas question, du moins pour l'instant, d'utiliser son nouvel outil basé sur ChatGPT pour effectuer autre chose que du travail de rédaction et des tâches linguistiques. Il faut donc, en ce moment, considérer en quelque sorte ledit outil comme un mélange du correcteur Antidote, d'un traducteur et de Clippy, le défunt assistant de la suite bureautique Office, de Microsoft.
« Il n'est pas question de se servir de ChatGPT pour obtenir des opinions juridiques, martèle encore M. Yelle. Ce n'est pas de cela qu'on parle. »
« Ce qu'on voit pour l'instant, c'est que c'est une bonne référence linguistique qui est efficace et rapide d'utilisation, même si ce n'est pas parfait. »
Et tout ce qui est produit par cet outil est ensuite révisé par un employé de l'entreprise, histoire de s'assurer non seulement que le résultat est de bonne qualité, mais aussi que le tout respecte les engagements du cabinet de protéger ses clients et de se conformer aux normes éthiques du Barreau.
« Nous sommes ultimement responsables des opinions éthiques que nous allons émettre, que ce soit en utilisant Word ou un outil d'IA générative; si on prend des risques et que nous faisons mal les choses, nous sommes responsables », a encore mentionné M. Yelle.
Celui-ci juge d'ailleurs « inévitable » que l'IA soit un jour employée directement dans le contexte d'un procès, même si, pour l'instant, pour Lavery comme pour le Barreau, une très grande prudence est de mise avec ces outils qui progressent rapidement, mais qui sont encore largement imparfaits.
Anonyme
il y a 11 moisBravo Barreau ! Très pertinent.