Nouvelles

Les avocats doivent indiquer l’usage de l’intelligence artificielle

Main image

Radio -Canada

2023-07-05 12:00:00

Des avocats doivent divulguer toute utilisation de l’intelligence artificielle dans la préparation de documents pour le tribunal.
Glenn Joyal. Photo : Radio-Canada
Glenn Joyal. Photo : Radio-Canada
Au Manitoba, il s’agit de l’un des premiers tribunaux en Amérique du Nord à publier une directive de pratique sur la question.

« Avec le développement encore nouveau, mais rapide, de l’intelligence artificielle, il est apparent que (celle-ci) pourrait être utilisée dans des exposés pour les tribunaux », indique le juge en chef de la Cour du Banc du Roi du Manitoba, Glenn Joyal, dans la directive du 23 juin.

« Bien qu’il soit impossible à ce moment-ci de prédire entièrement et précisément comment l’intelligence artificielle pourrait se développer ou comment définir (son) utilisation responsable dans des affaires judiciaires, il y a des préoccupations légitimes au sujet de la fiabilité et de la précision de l’information générée par l’usage de l’intelligence artificielle », poursuit-il.

Une affaire récente dans un tribunal de New York a fait la manchette parce qu’une firme a utilisé ChatGPT dans le cadre de sa recherche. Certaines des causes mentionnées dans le mémoire étaient entièrement inventées. Deux avocats ont reçu une amende de 5000 $, selon The Associated Press.

Ce genre de fausses informations sont connues sous le nom « d'hallucinations » dans le monde de l’intelligence artificielle.

Pour éviter des situations de ce genre, « lorsque l’intelligence artificielle a été utilisée dans la préparation de documents déposés auprès du tribunal, les documents doivent indiquer de quelle manière l’intelligence artificielle a été utilisée », indique la directive de pratique.

La directive ne contient pas de définition de l’utilisation de l’intelligence artificielle.

Leah Kosokowsky. Photo : LinkedIn
Leah Kosokowsky. Photo : LinkedIn
La présidente-directrice générale de la Société du Barreau du Manitoba, Leah Kosokowsky, indique qu’il n’y a pas eu de communication formelle avec la cour au sujet de l’utilisation de l’intelligence artificielle. Elle n’est pas non plus au courant de problèmes liés à l’utilisation de l’intelligence artificielle dans la profession juridique au Manitoba.

Leah Kosokowsky croit que la cause à New York a plutôt poussé la Cour du Banc du Roi à agir de manière « proactive ». « Nous le comprenons. (...) Nous ne sommes pas entièrement surpris qu’elle soit allée dans cette direction », indique-t-elle.

« C’est formulé de manière très large. J'imagine que les avocats pourraient revenir demander plus de précision des tribunaux sur la portée de la directive de pratique », ajoute la PDG de la Société du Barreau.

Le devoir de compétence technologique

La Société du Barreau du Manitoba est l’organe de réglementation de la profession d’avocat dans la province. Son code de déontologie contient déjà des articles qui encadrent adéquatement l’usage de technologie, selon sa PDG.

Peu importe la directive que la cour a fournie ici, les avocats ont tous des obligations éthiques (dont) l’obligation d’être compétents dans l’usage de la technologie : être au courant, savoir l’utiliser, connaître ses avantages et connaître les risques d’utiliser la technologie, souligne Leah Kosokowsky.

« Le risque avec ChatGPT, et possiblement avec d’autres logiciels d’intelligence artificielle, c’est qu’il peut inventer des réponses, ce qu’on appelle des hallucinations. Alors, il y a une obligation pour les avocats de vérifier ce qui est généré », explique Leah Kosokowsky.

Elle souligne que les avocats ont aussi l’obligation de préserver le secret professionnel avec leurs clients. En mettant des informations dans certains types de logiciels, notamment où il se fait une agrégation de données provenant des entrées de ses utilisateurs, il se pourrait qu’un avocat viole le secret professionnel.

« C’est vraiment le tribunal qui a décidé de fournir cette directive à la profession, signalant leurs préoccupations avec les développements rapides de cette technologie. (...) Si nous avons des préoccupations sur la conduite des avocats (en ce qui concerne l’usage de l’intelligence artificielle), nous pouvons dépendre des dispositions actuelles du code », résume Leah Kosokowsky.

Abdi Aidid. Photo : Université de Toronto
Abdi Aidid. Photo : Université de Toronto
Professeur adjoint à la faculté de droit de l’Université de Toronto, Abdi Aidid croit qu’il pourrait s’agir de la première directive d’un tribunal en Amérique du Nord sur l’intelligence artificielle. Il est auteur d’un livre sur le sujet, qui paraît le 4 juillet, et il a auparavant été vice-président d’une entreprise qui créait des logiciels d’intelligence artificielle pour les avocats.

Il croit que les sociétés du Barreau devraient encadrer l’utilisation de l’intelligence artificielle, plutôt que les tribunaux. « C’est tranché et final lorsque cela vient des tribunaux, alors que ce ne l’est pas lorsque cela vient de la réglementation professionnelle », souligne-t-il.

« Il y a de la place pour du débat, n’est-ce pas? Il y a des membres. Il y a des employés spécialisés qui œuvrent pour considérer les conséquences pour leurs professions. Il y a la possibilité (...) d’avoir un débat public solide auquel les sociétés du Barreau doivent être attentives, à cause de leur rôle », poursuit Abdi Aidid.

Des logiciels peu compris et mal utilisés

Pour lui, la directive de pratique souligne plutôt un manque de confiance envers les logiciels d’intelligence artificielle de la part du tribunal.

« Est-ce qu’un tribunal demande quels éléments d’un mémoire ont été préparés par un étudiant, lesquels ont été préparés par un associé de première année et lesquels ont été préparés par un associé principal », demande-t-il.

Cette volonté de séparer les choses faites par les avocats et les éléments provenant de l’intelligence artificielle est la conséquence d’un manque de confiance, affirme Abdi Aidid. Il estime qu'une meilleure compréhension de l’intelligence artificielle peut répondre à ces inquiétudes.

« Il y a beaucoup d’anxiété autour de son utilisation. Il n’y a pas autant d’histoires d’horreur qu’on pourrait l'imaginer (comme l’affaire à New York). C’est à cause d’un manque de compréhension autour de ce qu’est un outil comme ChatGPT », déclare-t-il.

Il ne s’agit pas d’un outil de recherche, « c’est un outil pour générer des mots », souligne le chercheur. Il s’agit donc d’une erreur de poser une question de recherche factuelle à un tel logiciel, et c’est ce qui provoque les fameuses « hallucinations ».

Avant l’arrivée de modèles comme ChatGPT, les avocats utilisent déjà régulièrement l’intelligence artificielle dans le cadre de leur travail. « Il s’agit d’outils prédictifs qui aident les avocats à identifier les meilleures causes et à les aider à construire leurs arguments légaux », explique Abdi Aidid.

L’intelligence artificielle pour améliorer l’accès à la justice

Abdi Aidi estime que les avocats utilisent l’intelligence artificielle pour « améliorer leur capacité de faire des choses qu’ils faisaient ou qu’ils doivent faire de toute façon, de les faire plus rapidement, mieux et pour moins cher ».

Ainsi, certains membres de la profession ont souligné qu’il pourrait y avoir des pertes d’emplois, et que l’intelligence artificielle pourrait faciliter la comparution de personnes qui n’ont pas d’avocat.

« Pourquoi est-ce que cela devrait nous préoccuper? Il y a une crise en matière d’accès à la justice et beaucoup de personnes n’ont pas les moyens de payer un avocat. Alors pourquoi le public n'accueillerait-il pas un outil qui aide les gens? », fait valoir Abdi Aidid.

Il conclut en disant que ce genre d’outil peut aussi aider le public à savoir, en temps réel, quels sont ses droits ou ses recours juridiques.
2513
Publier un nouveau commentaire
Annuler
Remarque

Votre commentaire doit être approuvé par un modérateur avant d’être affiché.

NETiquette sur les commentaires

Les commentaires sont les bienvenus sur le site. Ils sont validés par la Rédaction avant d’être publiés et exclus s’ils présentent un caractère injurieux, raciste ou diffamatoire. Si malgré cette politique de modération, un commentaire publié sur le site vous dérange, prenez immédiatement contact par courriel (info@droit-inc.com) avec la Rédaction. Si votre demande apparait légitime, le commentaire sera retiré sur le champ. Vous pouvez également utiliser l’espace dédié aux commentaires pour publier, dans les mêmes conditions de validation, un droit de réponse.

Bien à vous,

La Rédaction de Droit-inc.com

PLUS

Articles similaires