Qui poursuivre quand un robot fait une erreur?
Diane Poupeau
2019-06-04 13:15:00
Si les robots sont de plus en plus présents dans nos sociétés, ils ne sont pas pour autant sujet de droit. Cette affaire, première du genre, devrait permettre de dessiner les contours de ce nouveau type de responsabilité.
L'affaire oppose Samathur Li Kin-kan, fils d'un important investisseur qui possède notamment une grande partie du quartier chinois de Londres, Covent Garden et Carnaby Street, à Raffaele Costa, un italien spécialisé dans la vente de fonds de placement.
La société londonienne de l'homme d'affaire italien, Tyndaris Investments, exploite un fonds de couverture robotisé gérant l'argent en utilisant exclusivement l'intelligence artificielle.
20 millions de perdus en un jour
Le programme passe au peigne fin les sources en ligne, comme par exemple les nouvelles en temps réel et les médias sociaux, pour évaluer le sentiment des investisseurs et faire des prédictions sur les marchés boursiers américains. Des instructions sont ensuite envoyées à un courtier pour qu'il exécute les opérations.
Alors qu'on lui avait promis en 2017 un doublement de ses gains, Samathur Li Kin-kan a perdu un an plus tard des millions de dollars, dont 20 millions en une seule journée.
Li poursuit donc Tyndaris pour environ 23 millions de dollars. De son côté, l'entreprise poursuit son client à hauteur de 3 millions en raison d'honoraires impayés. Elle soutient également ne lui avoir jamais garanti que cette stratégie lui rapporterait de l'argent.
La question juridique ici posée peut se résumer ainsi : qui est responsable quand la défaillance trouve son origine dans un programme d'intelligence artificielle ? Est-ce la personne qui a écrit le code ? Celle qui commercialise le programme ?
La créativité des juristes
Selon Me Joël Roy, associé au sein du cabinet Aumais Chartrand Roy Avocats, cette affaire illustre « la créativité des juristes pour faire face aux problèmes juridiques soulevés par l'intelligence artificielle et la tentative d'appliquer à cette technologie les outils connus par les juristes ».
Selon lui, plusieurs angles peuvent être envisagés parmi lesquels la fausse représentation par rapport à l'efficacité du dispositif ou encore la responsabilité du fait de l'objet.
« Un autre aspect intéressant est celui des données qui sont compilées pour être utilisées à ces fins-là car l'intelligence artificielle est soumise aux données qu'on lui soumet. Là, on pourrait trouver quelqu'un de fautif dans la chaîne, on pourrait soulever la négligence de la personne qui a soumis ces données », nous a expliqué Me Roy.
L'avocat, qui est convaincu que ce n'est qu'une « question de temps » avant qu'une telle poursuite ait lieu au Québec, dit avoir hâte de connaître l'issue du contentieux britannique.
Il faudra toutefois attendre avril 2020 et la décision du tribunal de commerce de Londres pour connaître la réponse.