Utiliser l’IA comme outil de médiation
Marie-Ève Buisson
2023-07-26 14:15:00
L’agent virtuel conceptualisé et développé par Hannes Westermann permettra tout d’abord aux parties de reformuler leurs propositions dans le cadre d’une médiation. Elles auront par la suite le choix d’accepter, de refuser ou de demander une nouvelle reformulation.
Pendant ce temps, l'algorithme va identifier les discussions dans lesquelles l’intervention d’un médiateur serait pertinente. Une fois qu’il participera à la médiation, le médiateur recevra des propositions de messages à envoyer aux deux parties.
« On veut vraiment augmenter la performance des médiateurs, c’est-à-dire leur permettre de travailler sur plusieurs dossiers à la fois et les aider à identifier à quel moment ils doivent intervenir ou non », mentionne Me Valentin Callipel, chargé de mission au Laboratoire de cyberjustice.
Le robot conversationnel est pour l’instant un projet expérimental. Une cohorte étudiante travaille d'ailleurs cet été à analyser les propositions de messages offertes par le robot. L’équipe vérifiera aussi si l’IA est capable de surveiller les discussions grâce à des algorithmes d’analyses de sentiments.
Les chercheurs vont de plus comparer différents générateurs de textes tels que ChatGPT ou LLaMA afin de voir lesquels fournissent des réponses plus justes.
« Le but est d’identifier les incidences technologiques qui peuvent induire en erreur le médiateur. On veut réduire au maximum les affabulations que l’on peut retrouver dans ChatGPT par exemple. Après, ce sera bien sûr au médiateur d’identifier si l’outil fonctionne et lui convient », ajoute Me Callipel.
Le bon outil pour le bon type de médiation
Le médiateur Jean H. Gagnon se dit prêt à utiliser de nouveaux outils pour faciliter les séances de médiation.
« Je viens d’une époque où les fax, les enregistreuses, les messages vocaux, n’existaient pas encore. Je suis toujours prêt à utiliser de nouveaux outils technologiques s’ils peuvent faciliter mon travail », dit-il.
L’avocat tient tout de même à rappeler que l’intelligence artificielle a parfois ses limites.
« Pour les différends transactionnels, où il y a peu d’émotions impliquées, l’intelligence artificielle peut être très utile, puisqu’elle répond à des sujets objectifs comme l’argent. Dans les différends relationnels, l’IA peut être utilisée, mais elle a ses limites. Les participants auront moins tendance à se confier à un robot pour des questions plus personnelles comme la famille par exemple », exprime-t-il.
Toujours selon Me Gagnon, il faut faire attention aux questions de confidentialité lorsqu’on utilise l’IA.
« Lorsqu’on écrit à l’intelligence artificielle, il faut éviter de lui fournir des informations confidentielles. Il faut également vérifier l’information qui nous est transmise afin d’éviter d’induire en erreur les participants de la médiation », s’exprime-t-il.
Avec l’arrivée de différents outils technologiques, est-ce possible que les médiateurs soient remplacés par des robots ?
« Pas du tout ! On ne vise pas la déshumanisation de l’expérience de justice. À court terme, on n’imagine pas la possibilité de placer sous l’autorité d’un algorithme une quelconque activité juridique. Il faut forcément qu’une personne prenne la responsabilité professionnelle d’agir comme médiateur et peut-être que, dans le futur, il sera aidé par un algorithme », a confié à ce sujet Me Callipel à UdeM Nouvelles.