Opinions

Encadrement légal de l’IA: où en sommes-nous?

Main image

Danielle Ferron Et Alexandra Provost

2023-11-16 11:15:00

Où en est-on au Canada et au Québec dans les derniers développements en matière d’intelligence artificielle?
Danielle Ferron et Alexandra Provost, les auteurs de cet article. Source: Langlois
Danielle Ferron et Alexandra Provost, les auteurs de cet article. Source: Langlois
Avant-propos

Au cours des dernières années, les développements en matière d’intelligence artificielle (l’« IA »), particulièrement en ce qui concerne l’IA générative, ont été fulgurants.

Qu’on parle des grands modèles de langage (Large Language Models) capables de traiter et de générer des textes semblables à ceux d’un humain, des voitures autonomes permettant la conduite entièrement automatisée ou de l’authentification biométrique faciale utilisée pour déverrouiller la plupart des téléphones cellulaires, les systèmes d’IA occupent une place significative dans toutes les sphères de la vie humaine.

Les avancées technologiques viennent malheureusement avec leur lot d’enjeux, tels que l’hypertrucage (deepfake), qui contribue à la désinformation, ainsi que les biais discriminatoires, que nous avons analysés dans un précédent article.

La Cour supérieure du Québec a d’ailleurs récemment publié un avis destiné à la communauté juridique et au public afin de les mettre en garde contre la fabrication potentielle de sources juridiques par la voie des grands modèles de langage.

Afin de contrer les risques associés à cette technologie émergente, plusieurs pays ont donc annoncé leur intention de légiférer la conception, l’utilisation, la mise à la disposition et le développement des systèmes d’IA sur leur territoire.

Dans le présent article, les auteures s’attardent ainsi aux initiatives d’encadrement sur le plan légal de l’IA au Canada et au Québec.

Introduction

Certains parlent de l’encadrement de l’intelligence artificielle comme d’une nouveauté. Pourtant, il existe déjà au Canada et au Québec un cadre législatif applicable. Le droit substantif déjà en place, les règles d’éthique, nos Chartes des droits et libertés tant canadienne que québécoise, pour ne nommer que ceux-ci, s’appliquent tous à l’IA. À titre d’exemple, au Québec, une faute commise par le biais de l’IA qui causerait un dommage sera soumise au régime de responsabilité civile déjà prévu au Code civil du Québec.

Un cas de discrimination causé par l’IA sera soumis aux Chartes. Par ailleurs, bien que la nouvelle Loi 25, plus amplement détaillée ci-après, ne mentionne pas l’IA spécifiquement, les décisions entièrement automatisées sont visées et couvertes par cette loi.

Malgré ceci, tous s’entendent qu’un cadre législatif visant plus spécifiquement l’environnement en matière d’IA permettrait d’assurer une meilleure transparence, équité et sécurité des technologies en constante évolution.

Principes et recommandations

Sans vouloir être exhaustifs, rappelons qu’en mars 2017, le gouvernement du Canada a lancé la Stratégie pancanadienne en matière d’intelligence artificielle, devenant ainsi le premier pays à avoir lancé une stratégie nationale en matière d’IA.

Dans le cadre de cette stratégie, on constate que le Canada s’est donné le défi de mettre sur pied l’un des écosystèmes nationaux d’IA les plus robustes au monde d’ici 2030 en attirant les meilleurs talents, en augmentant la capacité de recherche de pointe et en favorisant la commercialisation et l’adoption de l’IA responsable, notamment par l’établissement de trois centres d’excellence soutenant la recherche en IA au Canada, soit l’Alberta Machine Intelligence Institute à Edmonton, l’Institut québécois d’intelligence artificielle à Montréal et l’Institut Vecteur pour l’intelligence artificielle à Toronto.

Rappelons également qu’en 2018, dans le cadre de la Déclaration de Montréal pour un développement responsable de l’IA, 10 principes de base visant à encadrer l’IA ont été énoncés. Parmi ces principes, on parle du bien-être de tous les êtres sensibles, du respect de l’autonomie, de protection de la vie privée, d’équité, de diversité et d’inclusion, de solidarité, de développement durable, de prudence et de responsabilité. Force est de constater qu’on parle ici de principes connus, déjà applicables dans la plupart des États de droit, mais qu’on a précisés en fonction des enjeux en matière d’IA.

Puis, le 12 novembre 2020, des recommandations visant la réglementation de l’IA ont été énoncées par le Commissariat à la protection de la vie privée du Canada. Soulignant entre autres que les utilisations de l’intelligence artificielle nécessitant des renseignements personnels peuvent avoir de graves conséquences sur la vie privée, le Commissariat y a fait plusieurs recommandations, notamment les suivantes :
  • l’obligation pour ceux qui mettent au point les systèmes d’IA d’assurer la protection de la vie privée des individus au moment de leur conception;

  • la création d’un droit des personnes concernées d’obtenir une explication, en termes compréhensibles, leur permettant de comprendre les décisions rendues à leur égard par un système d’intelligence artificielle, de même que s’assurer que ces explications soient fondées sur de l’information exacte et qu’elles ne soient pas discriminatoires ou biaisées;

  • la création d’un droit de contester les décisions découlant de la prise de décision automatisée;

  • le droit de l’autorité de réglementation d’exiger des preuves de ce qui précède.

  • De plus, dans son rapport publié en septembre 2023, le Commissariat à la protection de la vie privée du Canada fait l’une de ses priorités stratégiques le suivi de l’évolution rapide des progrès technologiques afin de cerner leurs répercussions sur la vie privée, particulièrement en ce qui concerne l’IA et l’IA générative.

    Par ailleurs, en novembre 2021, les 193 États membres de l’UNESCO, dont le Canada, ont adopté la Recommandation sur l’éthique de l’intelligence artificielle, soit le tout premier instrument normatif mondial sur le sujet. On dit de cette recommandation qu’« (e)lle permettra non seulement de protéger mais aussi de promouvoir les droits humains et la dignité humaine, et constituera une boussole éthique et un socle normatif mondial permettant d’instaurer un solide respect de l’État de droit dans le monde numérique. »

    Cette recommandation rappelle par ailleurs les besoins « de politiques et de cadres réglementaires nationaux et internationaux pour garantir que ces technologies émergentes profitent à l’humanité tout entière » et « d’une IA centrée sur l’humain, qui servirait l’intérêt supérieur des citoyens, et non pas l’inverse ».

    Plus récemment, soit le 19 avril 2023, dans une lettre ouverte parue dans La Presse, un groupe de 75 personnes œuvrant dans le domaine de l’IA et composé notamment de chercheurs, universitaires, PDG d’entreprise et responsables d’organismes, ont plaidé pour l’urgence de mettre en place un cadre légal pour encadrer le développement de l’intelligence artificielle, afin de garantir transparence, responsabilité et éthique dans son utilisation, ainsi que la protection de la vie privée des individus :

    Si le Canada devenait l’un des premiers pays à adopter sa législation, il enverrait un signal fort aux entreprises du monde entier : elles peuvent et doivent se tourner vers le Canada et les entreprises canadiennes si elles veulent développer ou acquérir des systèmes d’IA dignes de confiance et responsables qui respectent les droits de la personne et protègent le bien-être des utilisateurs.

    Presque au même moment, le ministre de l’Économie, de l’Innovation et de l’Énergie du Québec a lancé une réflexion collective non partisane, transparente et inclusive sur l’encadrement de l’intelligence artificielle au Québec. Deux mois plus tard, en juin 2023, il annonçait également l’initiative Confiance IA, soit un consortium de recherche industrielle public-privé visant à encadrer le développement de l’intelligence artificielle de façon éthique, fiable et responsable au Québec.

    Ainsi, au cours du printemps et de l’été 2023, des dizaines d’experts rassemblés par le Conseil de l’innovation du Québec se sont penchés sur six thématiques particulières, soit :
  • le cadre de gouvernance de l’IA;

  • le cadre des investissements publics en IA dans le secteur de la recherche et dans le secteur privé;

  • le cadre de l’utilisation de l’IA par l’État;

  • les impacts de l’IA sur le travail et de marché de l’emploi québécois;

  • les autres impacts sociétaux de l’IA, notamment en matière de démocratie, d’environnement et d’arts et culture;

  • le rôle du Québec dans l’encadrement international de l’IA et comme chef de file du développement et du déploiement responsable de l’IA.

  • En octobre 2023, plusieurs rapports faisant état de la situation quant à ces thèmes ont d’ailleurs été publiés sur le site internet du Conseil de l’innovation du Québec.

    Enfin, le ministre fédéral de l’Innovation, des Sciences et de l’Industrie a présenté le 27 septembre 2023, lors de l’ouverture de l’événement ALL IN sur l’intelligence artificielle, le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés.

    Les entreprises qui ont signé ou qui signeront volontairement ce code s’engagent notamment à soutenir le développement continu d’un écosystème d’IA fiable et responsable au Canada par le biais de six grands principes, soit la responsabilisation, la sécurité, la justice et l’équité, la transparence, la surveillance humaine ainsi que la validité et la fiabilité.

    L’encadrement de l’IA par le gouvernement du Canada

    En ce qui concerne le Canada, le gouvernement fédéral a déposé en juin 2022 un projet de loi visant à réglementer la conception, le développement et l’utilisation des systèmes d’IA dans le cadre des échanges et du commerce internationaux et interprovinciaux par l’établissement d’exigences communes à l’échelle du Canada.

    Il s’agit de la Loi sur l’intelligence artificielle et les données (la « LIAD »), qui est proposée dans le cadre du projet de loi C-27 : Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois.

    Actuellement en examen en comité à la Chambre des communes, la LIAD vise toutes personnes, notamment les fiducies, les sociétés de personnes, les coentreprises, les associations non dotées de la personnalité morale et toutes autres entités juridiques, exerçant les activités réglementées suivantes :
  • le traitement ou le fait de rendre disponibles des données liées à l’activité humaine afin de concevoir, de développer ou d’utiliser un système d’IA; et

  • la conception, le développement ou le fait de rendre disponible un système d’IA ou la gestion de son exploitation.

Un système d’IA y est d’ailleurs défini comme étant un « système technologique qui, de manière autonome ou partiellement autonome, traite des données liées à l’activité humaine par l’utilisation d’algorithmes génétiques, de réseaux neuronaux, d’apprentissage automatique ou d’autres techniques pour générer du contenu, faire des prédictions ou des recommandations ou prendre des décisions. »

Par la création de nouvelles dispositions de droit criminel, la LIAD interdira certaines conduites relativement aux systèmes d’IA qui peuvent causer un préjudice sérieux aux Canadiens et Canadiennes, notamment la possession et l’utilisation de renseignements personnels obtenus illégalement afin de concevoir, développer, utiliser ou rendre disponible un système d’IA ainsi que la mise à disposition de systèmes d’IA dans l’intention de frauder et dont l’utilisation cause une perte économique considérable à un individu, ce que plusieurs experts dans le domaine voient d’un bon œil :

En plus de stipuler que les systèmes d’IA à fort impact doivent se conformer à des obligations, notamment en matière de sécurité, de transparence et de droits humains, la LIAD sanctionnerait les comportements causant de graves préjudices aux individus ou à leurs intérêts. Elle fournit un échafaudage pour les réglementations à élaborer en consultation avec un large éventail de parties prenantes, en définissant des concepts et des exigences spécifiques qui constitueront les garde-fous pour le développement et le déploiement de l’IA.

La LIAD encadrera par ailleurs les risques associés aux biais systémiques au sein des systèmes d’IA dans le secteur privé.

Ainsi, la LIAD adoptera une approche fondée sur les risques en plus de créer de nouvelles obligations à l’égard des « systèmes à incidence élevée ». Bien que les critères permettant d’identifier de tels systèmes restent à être définis dans les règlements, ils devront être l’objet de mesures visant à cerner, évaluer, atténuer et contrôler les risques de préjudice ou de résultats biaisés que pourrait entraîner leur utilisation avant qu’ils ne soient rendus disponibles.

Il est noté que deux types de sanctions sont prévues en cas de contravention à cette loi, soit des amendes pouvant atteindre de 10 à 25 millions de dollars canadiens pour les entreprises fautives et des peines d’emprisonnement maximales de cinq ans moins un jour et/ou d’amendes discrétionnaires pour les individus fautifs.

Alors que le Canada joue un rôle de chef de file en matière d’IA dû à ses multiples initiatives dans le domaine au cours des dernières années, la LIAD « propose un cadre législatif pour l’IA qui sera soutenu par des règlements et des normes, ce qui la rend suffisamment flexible pour s’adapter aux nouvelles capacités et applications de l’IA au fur et à mesure que la technologie évolue. »

Bien que certaines critiques existent vis-à-vis de la LIAD, notamment quant à l’absence de consultation publique préalable, quant au fait que ces nouvelles exigences pourraient ralentir les avancées technologiques utilisant l’IA et quant à l’absence de détails sur quelles technologies seront régies par la LIAD, pour ne nommer que celles-ci, la plupart des experts s’entendent qu’il faut encadrer l’IA :

Si l’encadrement est juste, il n’y a pas de raison qu’il mette un frein à la venue d’innovations. Le Canada, le Québec et Montréal sont des pôles d’attraction en IA et cela n’a pas empêché qu’on adopte les principes de la Déclaration de Montréal.

Notons toutefois qu’aucune date d’entrée en vigueur pour cette loi n’est prévue avant 2025, alors que dans d’autres régions du monde, telles que la Chine, les États-Unis et l’Europe, des lois sont déjà en vigueur ou sont sur le point d’être adoptées. Pensons par exemple à la loi concernant l’IA, qui est sur le point d’être adoptée par l’Union européenne. Nous traiterons d’ailleurs de certaines de ces réglementations dans un prochain article.

Enfin, malgré cette absence d’entrée en vigueur, rappelons que le Commissariat à la protection de la vie privée du Canada possède des pouvoirs d’enquête en matière de vie privée et de renseignements personnels qui s’appliquent déjà en matière d’IA. À titre d’exemple, une enquête a débuté en avril 2023 sur l’entreprise OpenAI, qui est à l’origine de ChatGPT, à la suite d’une plainte selon laquelle des renseignements personnels ont été recueillis, utilisés et communiqués sans consentement. L’enquête est pour le moment toujours en cours.

L’encadrement de l’IA par le gouvernement du Québec

Quant au Québec, bien qu’aucune loi spécifique à l’encadrement de l’IA ne soit en place, la Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (la « Loi 25 ») impose de nouvelles règles visant à protéger la vie privée du citoyen québécois depuis septembre 2022. Celle-ci tient d’ailleurs compte des répercussions de l’IA à ce sujet.

La Loi 25 change notamment la façon dont les organismes publics et les entreprises privées doivent gérer les renseignements personnels qui seront traités par l’IA, et ce, bien que la loi ne fasse pas explicitement référence à l’IA dans son texte. En effet, plusieurs de ses dispositions imposent de nouvelles mesures pour assurer une meilleure protection de la vie privée des citoyens et citoyennes tout en tenant compte des nouvelles réalités technologiques, notamment de l’IA.

À titre d’exemple, la Loi 25 prévoit de nouveaux droits pour les personnes faisant l’objet d’un traitement exclusivement automatisé de ses renseignements personnels par un système décisionnel automatisé (par exemple, un algorithme qui calcule et accorde, sans aucune intervention humaine, une allocation familiale). Depuis septembre 2023, ces personnes doivent désormais être informées du fait que leurs renseignements personnels sont utilisés dans le cadre d’un traitement automatisé.

À leur demande, ces personnes pourront être informées des renseignements personnels utilisés pour rendre la décision, des raisons et de tout autre facteur important ayant mené à la décision ainsi que de leur droit de faire rectifier les renseignements personnels utilisés pour rendre la décision. Ces personnes devront également avoir la possibilité de présenter leurs observations à un membre du personnel de l’organisation ayant le pouvoir de réviser la décision.

La Loi 25 vise également une meilleure protection des personnes face aux technologies capables de faire de l’identification, de la localisation et du profilage. Le profilage y est d’ailleurs défini au sens large comme étant « la collecte et (…) l’utilisation de renseignements personnels afin d’évaluer certaines caractéristiques d’une personne physique, notamment à des fins d’analyse du rendement au travail, de la situation économique, de la santé, des préférences personnelles, des intérêts ou du comportement de cette personne. » À partir de septembre 2023, les fonctions permettant l’identification, la localisation et le profilage de personnes doivent être désactivées par défaut sur tout appareil.

De plus, depuis septembre 2022, la création d’une banque de caractéristiques ou de mesures biométriques (empreinte vocale, empreintes digitales, ADN, etc.) par une entreprise ou un organisme public doit être divulguée au plus tard 60 jours avant sa mise en service à la Commission d’accès à l’information.

Tout comme pour la LIAD, les contrevenants aux dispositions de la Loi 25 et ses règlements d’application s’exposent à des sanctions sévères, soit à des amendes pouvant atteindre entre 10 et 25 millions de dollars canadiens pour les entreprises fautives et entre 5 000 et 100 000 dollars canadiens pour les individus fautifs.

Il est à noter que d’autres exigences prévues par la Loi 25 entreront en vigueur en septembre 2024.

Conclusion

Bien que l’encadrement législatif de l’IA fasse couler beaucoup d’encre, et que tous semblent en accord que cet encadrement soit nécessaire, il reste du chemin à faire pour arriver à du concret.

Entre-temps, rappelons que le droit substantif, tant canadien que québécois, trouve application en matière d’IA.

Il faut également garder à l’esprit que le Canada n’est pas le seul à vouloir se doter de nouvelles règles en matière d’IA et qu’à cet égard, il sera intéressant de surveiller ce qu’il se passe ailleurs, notamment en Europe, aux États-Unis et en Chine.

À propos des auteurs

Me Danielle Ferron est associée du secteur litige au sein du bureau de Langlois Avocats à Montréal. Elle œuvre en litige civil et commercial depuis plus de 25 ans.

L’associée assiste les clients quant à la gestion de crise à la suite d’incidents de cybersécurité (breach coach), mais également en amont en tant qu’avocate-conseil pour préparer la gestion de crise potentielle.

Me Alexandra Provost est avocate au sein du groupe de litige pour le cabinet Langlois Avocats. Elle exerce principalement dans les domaines du litige civil et commercial, de l’assurance et de la responsabilité civile et professionnelle.
2004
Publier un nouveau commentaire
Annuler
Remarque

Votre commentaire doit être approuvé par un modérateur avant d’être affiché.

NETiquette sur les commentaires

Les commentaires sont les bienvenus sur le site. Ils sont validés par la Rédaction avant d’être publiés et exclus s’ils présentent un caractère injurieux, raciste ou diffamatoire. Si malgré cette politique de modération, un commentaire publié sur le site vous dérange, prenez immédiatement contact par courriel (info@droit-inc.com) avec la Rédaction. Si votre demande apparait légitime, le commentaire sera retiré sur le champ. Vous pouvez également utiliser l’espace dédié aux commentaires pour publier, dans les mêmes conditions de validation, un droit de réponse.

Bien à vous,

La Rédaction de Droit-inc.com

PLUS

Articles similaires