Opinions

« Une intelligence artificielle capable de remplacer les juges »

Main image

Rémi Slama

2022-02-10 11:15:00

Se rapproche-t-on du jour où les magistrats ne seront plus des humains ? Ce juriste soulève les questions au sujet de cette hypothèse.
Source: Shutterstock
Source: Shutterstock
Des chercheurs du domaine de l’intelligence artificielle (IA) appartenant au parquet de Shanghai (district de Pudong) ont récemment annoncé avoir mis au point une IA capable de remplacer un procureur dans sa fonction d’autorité de poursuite d’une personne visée par une plainte pénale.

Cette IA permettrait en effet de prendre une décision de poursuivre ou non un citoyen après une analyse intelligente du procès-verbal d’accusation le concernant. Plus encore, elle serait capable de décider de la peine à appliquer relativement aux huit chefs d’accusation les plus fréquemment prononcés dans le district de Pudong. On parle notamment du vol, de la fraude, de la conduite dangereuse, de l’agression caractérisée, de la fraude à la carte bancaire, du fait d’avoir joué à des jeux d’argent ou encore de l’entrave à l’exercice de la justice et des troubles à l’ordre public (à comprendre comme le délit de dissension politique).

D’après les créateurs de ce programme, la fiabilité de l’IA est estimée à 97% après avoir été testée sur près de 17,000 dossiers entre 2015 et 2020 sur une base de plusieurs milliers de paramètres différents.

Au moment où ces lignes sont écrites, nous ne sommes pas en mesure de confirmer ces chiffres ni de donner plus de détails sur le type d’IA utilisée en l’espèce. Nous ne manquerons pas d’y revenir dès que la publication de cette innovation sera accessible.

En revanche, ce que nous savons est que le programme aurait été développé à partir d’une IA appelée « System 206 » déjà utilisée par les procureurs chinois pour déterminer si un suspect est de nature à représenter un danger pour la société ou encore pour faciliter l’évaluation des preuves. Mais cette IA ne prend pas de décision de poursuite, qui par essence est le rôle d’un procureur.

D’après ses créateurs, l’IA nouvellement développée pourrait prendre une telle décision et même remplacer les juges dans leur fonction de détermination des peines. Elle ne serait pour l’instant utilisée que pour les huit chefs d’accusation mentionnés précédemment, les cas les plus complexes comme les affaires criminelles restant l’apanage des seuls juges. L’idée sous-tendue par le projet serait de décharger les membres du parquet des dossiers les plus courants et ainsi leur permettre de se concentrer sur les affaires les plus graves.

Mais pour combien de temps ?

Si cela n’est pas la première fois qu’une IA est utilisée par une institution judiciaire, l’utilisation d’une IA dotée d’un tel pouvoir décisionnel est inédite au sein d’une juridiction de jugement.

Selon les dires de ses concepteurs, le système d’IA développé à Shanghai serait particulièrement abouti et son utilisation pour prendre des décisions constituerait une première mondiale.

Toutefois, ce système d’IA et son rôle au sein du parquet soulèvent des questions majeures en termes de garanties juridiques ayant trait aux droits et libertés des justiciables. Sans entrer dans une perspective de droit chinois qui ne relève pas de notre expertise, de nombreux systèmes juridiques font apparaître le procureur et le juge comme jouant un rôle fondamental dans la préservation des droits procéduraux des justiciables. Ils doivent en effet respecter une déontologie professionnelle essentielle étant entendu que les décisions qu’ils prennent sont de nature à impacter considérablement ceux qu’ils entendent poursuivre.
Dès lors, remplacer le procureur ou le juge par une IA pourrait même être perçu comme une dangereuse régression en matière de droits de l’homme.

Le système développé par les Chinois ne serait de toute façon pas autorisé en l’état actuel du droit, ni dans les juridictions françaises, ni selon la législation de l’Union européenne à la lumière du dernier règlement du parlement européen relatif à l’IA. Il n’aurait pas plus de licéité en droit canadien.

De plus, il est difficile d’accepter l’utilisation d’une IA admettant 3% de marge d’erreur lorsque les décisions qu’elle prend peuvent conduire à des peines de privation de liberté pour les justiciables. Une mauvaise décision qui condamnerait à tort un prévenu violerait en l’espèce ses droits les plus fondamentaux ainsi que les principes essentiels de l’état de droit.

Certes, le juge ou le procureur peuvent toujours se tromper, mais la collégialité de certaines décisions peut pallier ces erreurs.

Au-delà, une décision de poursuite ou de justice est fondée sur un raisonnement qu’il est possible d’analyser a posteriori. En revanche, une IA connexionniste (si à tout le moins il s’agit bien du type d’IA utilisé en l’espèce) repose, elle, sur des milliers de paramètres constituant une boîte noire dont il est a priori complexe d’expliquer le fonctionnement. Il serait également difficile de déchiffrer dans l’opacité de l’algorithme un quelconque raisonnement juridique assimilable à ce que peut produire l’intelligence humaine. Un dernier obstacle serait la protection du secret commercial que le fabricant du système opposerait à l’ambition d’une telle recherche.

Par ailleurs, une décision de justice de première instance rendue par des magistrats « humains », peut être susceptible d’appel, ce qui permet un réexamen de l’affaire par un autre tribunal et des juges impartiaux. Comment pourrait-on mettre en place une telle procédure d’appel s’il est impossible au deuxième juge d’analyser ni les motifs ni le raisonnement d’une décision prise par une machine intelligente ?

La question de la responsabilité doit également être posée. Dans certaines juridictions, le justiciable lésé pourra rechercher la responsabilité de l’État voire des magistrats eux-mêmes en cas de faute commise personnellement.

Mais qu’en est-il si une IA admet une marge d’erreur de 3% ? Faudra-t-il rechercher la responsabilité de la machine ou de ses concepteurs ? Les magistrats ou l’État devront-ils rendre des comptes des décisions préjudiciables de l’IA ?

Pour l’heure, ces questions restent encore en suspens même si en droit québécois la question de la responsabilité des agents autonomes a pu donner lieu à un débat doctrinal que le législateur québécois doit encore trancher.

Le projet chinois, lui, n’est qu’au stade expérimental, mais il pose la question d’une possible hégémonie chinoise en matière d’IA juridique et judiciaire.

La réponse doit appeler à une certaine prudence dans la mesure où non seulement l’efficacité réelle de tels systèmes reste à prouver mais aussi parce que les outils d’aide à la décision peuvent comporter un certain nombre de biais. D’autant qu’en matière d’IA, les fausses promesses et les marchands de rêve abondent.

Enfin, la Chine n’est pas le seul pays à s’intéresser à l’IA juridique et judiciaire. En France, des « Legal techs » comme Predictice, Supra Legem, doctrine.fr ou encore Hyperlex entendent elles aussi compter dans ce domaine en plein essor. Parce qu’il y a cependant une certaine réticence à rendre une décision de justice de façon automatisée, l’IA en matière juridique française existe majoritairement sous la forme de systèmes d’aides à la décision qui ne concernent pas encore le domaine (jugé trop sensible) du droit pénal.

Les États-Unis développent également de nombreuses « Legal techs » et n’entendent pas laisser le champ libre aux Chinois dans cette compétition technologique. L’utilisation de l’IA en matière pénale se retrouve notamment dans le système Public Safety Assessment (« PSA »), lequel permet (par l’utilisation d’outils prédictifs) de décider de l’opportunité d’une remise en liberté provisoire d’un prévenu en attente de son procès.

Il faut cependant noter une différence fondamentale avec le système d’IA vanté par les chercheurs du parquet du district de Pudong: dans le système PSA, la décision ultime de privation de liberté revient au juge et non pas à une machine, dite intelligente.

Dans un avenir proche, il est probable que d’autres outils dotés d’une IA capable d’assister voire de remplacer ceux qui disent le droit soient amenés à se développer et à dépasser les frontières mêmes de la Chine.

Quelles seront les places du Canada et en particulier du Québec dans cette course à l’IA dans le domaine juridique et judiciaire ?

Nous suivrons cela avec attention.

À propos de l’auteur

Membre du barreau de Paris et du Luxembourg, Rémi Slama est avocat et auxiliaire de justice au Laboratoire de cyberjustice, qui a initialement publié ce texte. Il complète présentement une maîtrise en droit à l’Université de Montréal.
7711
2 commentaires
  1. DSG
    Waste of time
    Why are they wasting their time developing robot lawyers and judges when the really need in the market is for skanky sexbots.

  2. Pigeon dissident
    Pigeon dissident
    il y a 2 ans
    Wow
    Only in China.

    Et hop cascades, on vient de faire disparaître les droits de la personne.

Annuler
Remarque

Votre commentaire doit être approuvé par un modérateur avant d’être affiché.

NETiquette sur les commentaires

Les commentaires sont les bienvenus sur le site. Ils sont validés par la Rédaction avant d’être publiés et exclus s’ils présentent un caractère injurieux, raciste ou diffamatoire. Si malgré cette politique de modération, un commentaire publié sur le site vous dérange, prenez immédiatement contact par courriel (info@droit-inc.com) avec la Rédaction. Si votre demande apparait légitime, le commentaire sera retiré sur le champ. Vous pouvez également utiliser l’espace dédié aux commentaires pour publier, dans les mêmes conditions de validation, un droit de réponse.

Bien à vous,

La Rédaction de Droit-inc.com

PLUS

Articles similaires