Home / Publications / The AI Series / L'intelligence artificielle dans le domaine des litiges...

AI Series 4: L'intelligence artificielle dans le domaine des litiges et de l'arbitrage : Quel impact aura-t-elle ?

L'intelligence artificielle (IA) n'a pas seulement ouvert la voie aux domaines de pratique technophiles. Elle est également susceptible de révolutionner des aspects du contentieux, en particulier la manière dont les procédures de contentieux peuvent être exécutées et la variété des litiges susceptibles de se développer dans le domaine de l'IA. Dans ce qui suit, nous tenterons de mettre en lumière certaines des tendances et des développements les plus marquantes. D'une part, les méthodes de règlement des litiges renforcées par l'intelligence artificielle sont visibles à l'horizon proche (sans que l'exactitude de l'information ne soit encore confirmée), d'autre part, un risque croissant de litiges liés à l'IA devient apparent, ce qui nécessite une réflexion précoce et une réponse des entreprises.

1. Le contentieux amélioré par l'intelligence artificielle

 

  • Assistance juridique virtuelle au sein du système judiciaire : Les assistants juridiques virtuels jouent un rôle pertinent dans les opérations juridiques. Les assistants virtuels alimentés par l'IA pourraient s'améliorer dans les années à venir et de nombreuses tâches administratives telles que la planification, l'assemblage de documents et le remplissage pourraient être de plus en plus gérées par des machines. Par conséquent, les avocats ou les juges humains pourraient interagir davantage avec ces assistants de la manière dont ils interagissent déjà avec les assistants aujourd'hui.
  • Personnalisation judiciaire des procédures de travail : Aujourd'hui, les juges et les avocats doivent lire de longs plaidoyers au contenu très variable. Il est imaginable que l'utilisation d'outils d'IA puisse ou sera utilisée pour accélérer ou au moins améliorer l'expérience de lecture et de traitement. De plus, les juges pourraient avoir des préférences quant à la structure des documents judiciaires et suggérer leurs préférences via un modèle basé sur l'IA, par exemple des modèles ou des suggestions de ce à quoi leurs "plaidoyers souhaités" devraient ressembler (par exemple, les tribunaux de travail suisses ont des modèles de plaidoyers complets pour les employés potentiels pour déposer leurs réclamations). Que cela se produise et dans quelle mesure est difficile à prédire. Les juges ne sont peut-être pas toujours disposés à créer une transparence sur leurs préférences en matière de plaidoyers à l'avance ou même à ouvrir des portes à un éventuel profilage. De plus, ils ne sont guère récompensés pour le traitement d'un plus grand nombre d'affaires. Ainsi, il pourrait même être plus avantageux pour eux de recevoir des plaidoyers mal rédigés qu'il peut rejeter et ensuite clore une affaire (parce qu'elle ne répond pas aux exigences légales).
  • Logique judiciaire améliorée par l'IA : Selon la complexité des affaires, il serait probablement contraire à l'éthique pour les juges et en conflit avec les principes statutaires et constitutionnels d'intégrer les analyses de l'IA dans le processus de jugement. Les algorithmes s'appuyant sur des milliards de données pourraient aider à l'analyse des faits ou à la création d'un ensemble d'arguments juridiques convaincants qu'un juge serait susceptible d'examiner et de peaufiner. Les lois procédurales actuelles en Suisse consacrent le principe selon lequel un juge doit raisonner, élaborer et rendre ses décisions en général par lui-même (la délégation non légale de cette tâche personnelle à des tiers est souvent appelée la soi-disant "demission du juge", un type de comportement non autorisé et pouvant être contesté légalement).  Il n'en reste pas moins que les procédures d'adjudication de masse non complexes sont une réalité marquante. (comme par exemple l'application des amendes de stationnement) sont déjà effectuées de manière automatisée (on reçoit un e-mail/SMS d'une autorité policière expliquant le motif de l'action/violation de stationnement, offrant l'option de cliquer sur "J'accepte" et la livraison automatique d'une amende, option de paiement via TWINT pour payer l'amende et clore le dossier) et il est probable que les décisions judiciaires améliorées par l'IA pourraient augmenter dans les domaines du droit à faible complexité et d'application de masse.
  •  Analyse des émotions et des sentiments : Cela semble effrayant et tiré par les cheveux. Mais un outil basé sur l'IA pourrait-il examiner si le juge soupire ou si un autre membre du tribunal fronce les sourcils ? Pourrions-nous examiner les yeux d'un témoin et en déduire s'il est nerveux ? Et si un outil d'IA pouvait analyser de tels sentiments/humeurs ? Cela permettrait-il aux avocats d'adapter leurs tactiques pendant un procès ? Bien que l'introduction de telles fonctionnalités (semblables à la surveillance, au détecteur de mensonges) suscite des résistances, il est juste de dire que les participants humains aux procédures judiciaires ont toujours observé les humeurs et le comportement humain (surtout lors des négociations de règlement) et ont façonné leurs tactiques dans une certaine mesure. L'élément douteux de l'analyse des émotions et des sentiments réside probablement dans la question de la précision des sentiments analysés basés uniquement sur des apparences externes (purement superficielles) des participants humains sur une très courte période de temps. Il se pourrait bien que les participants humains continuent à faire davantage confiance à leurs propres instincts à ce moment-là qu'à un outil d'IA. Cependant, un tel outil d'IA pourrait toujours fournir des indices à un participant, par exemple un avis à un avocat "le juge bâille pour la 10e fois, il semble mal à l'aise et semble ne pas bien connaître votre mémoire écrite". Un avocat pourrait alors, par exemple, tirer ses propres conclusions, par exemple plaider davantage qu'il ne l'avait prévu pour rendre un argument plus convaincant pour le juge. Ou, un outil d'IA pourrait suggérer que les remarques unilatérales d'un juge révèlent un biais envers un témoin ou une ligne de raisonnement particulière. Un avocat disposant de retours en temps réel d'un outil d'IA pourrait alors façonner sa stratégie de plaidoirie en cour, à condition que de tels outils soient fiables, précis et suffisamment rapides.

Bien que tout ce qui précède soit encore de la musique d'avenir et que tous ces outils ne seront pas pertinents dans un avenir proche, nous pensons que progressivement, certaines de ces fonctionnalités entreront dans le système judiciaire et pourraient soulever de nouvelles questions sur les risques de déploiement de l'IA et la compatibilité avec les exigences statutaires et constitutionnelles du système judiciaire.


New Media & Technologies
Changing business models through new technologies

2. Risques croissants de litiges liés à l'intelligence artificielle

Le risque que les entreprises développant ou utilisant des outils d'IA soient confrontées à des litiges évolue, car l'IA offre non seulement des opportunités, mais aussi des risques associés donnant lieu à une responsabilité. Les risques peuvent survenir avec les données d'entrée utilisées par un tel système, avec l'utilisation du système d'IA lui-même et avec les résultats ultérieurs des systèmes. Les entreprises devraient déterminer si elles doivent intégrer des mesures de protection supplémentaires dans leurs systèmes d'IA. Dans ce qui suit, nous présenterons quelques cas de litiges remarquables qui se sont produits dans le monde et qui pourraient également affecter votre entreprise à l'avenir.

  • Litiges en matière de propriété intellectuelle : Un des scénarios de litige les mieux établis est basé sur des allégations selon lesquelles l'utilisation de données par les systèmes d'IA viole les droits de propriété intellectuelle préexistants. Divers cas de litiges sur ce sujet sont en cours dans le monde entier (voir plus d'informations, par exemple, sous https://sustainabletechpartner.com/topics/ai/generative-ai-lawsuit-timeline/). Un des cas les plus répandus est le procès en cours aux États-Unis intenté par trois artistes qui ont déposé un recours collectif contre Stability AI et Midjourney alléguant que l'utilisation de leurs œuvres enfreint le droit d'auteur et d'autres lois respectives menace de mettre les artistes au chômage (voir plus d'informations sur ce cas, par exemple, sous https://www.theartnewspaper.com/2024/05/10/-deviantart-midjourneystablediffusion-artificial-intelligence-image-generators). Une autre décision de la Haute Cour de Londres en 2024 portait sur la brevetabilité des "réseaux neuronaux artificiels" formés (voir par exemple https://aibusiness.com/responsible-ai/a-uk-high-court-just-ruled-ai-can-be-patented). De plus, un certain nombre de tribunaux ont examiné si les systèmes d'IA peuvent être nommés comme inventeurs en vertu des lois sur les brevets ou non (voir par exemple https://www.cnbc.com/2023/12/20/ai-cannot-be-named-as-an-inventor-top-uk-court-says-in-patent-dispute.html). D'autres informations sur ces cas seront fournies dans une publication séparée à suivre et un outil de suivi des litiges liés à l'IA que nous prévoyons de mettre à jour.
  • Litiges sur la prise de décision automatisée : Aux Pays-Bas, la Cour d'appel d'Amsterdam a examiné si les conducteurs ont le droit d'accéder à leurs données personnelles et à l'utilisation de processus de prise de décision automatisée, y compris le profilage d'Uber et d'Ola. Dans une série de décisions, la cour a jugé que les informations doivent être divulguées et que certains processus de prise de décision automatisée, tels que la création de scores de probabilité de fraude et le système de correspondance en lots (qui lie les conducteurs Uber aux passagers) ont un effet considérable sur les conducteurs et les entreprises ont donc été tenues de fournir une explication de base de ses algorithmes, quels facteurs ont été évalués et comment ils ont été pondérés pour parvenir à une décision concernant les évaluations moyennes des conducteurs (voir plus d'informations sous https://www.sector-plandls.nl/wordpress/blog/the-ola-uber-judgments/).
  • Litiges pour rupture de contrat : Bien que ce cas ait été réglé avant le procès, dans l'affaire Tyndaris SAM c. MMWWVWM ("VWM"), une réclamation contractuelle a été soulevée selon laquelle un système d'IA avait mal fonctionné (c'est-à-dire déviant de ce qui était promis). Tyndaris a développé un système d'IA utilisé comme supercalculateur pour appliquer l'IA aux actualités en temps réel et aux réseaux sociaux afin d'identifier les tendances d'investissement sans intervention humaine. Tyndaris et VWM ont conclu un contrat dans lequel VWM a investi dans un compte géré par Tyndaris en utilisant ce système d'IA. Dans un litige de paiement, entre autres allégations, VWM a allégué que le système n'avait pas été suffisamment testé ou correctement conçu ou analysé par des professionnels expérimentés dans le commerce systématique et que le système d'IA n'était pas entré sur le marché aux meilleurs moments de la journée, de sorte que VWM avait manqué des investissements avantageux. Ce cas montre la nécessité de réduire les risques contractuels lors du développement et de l'offre de systèmes d'IA avec des clauses spécifiques sur le niveau de test et la limitation des garanties ou des clauses de responsabilité (pour plus d'informations, voir http://dispute-resolutionblog.practicallaw.com/ai-powered-investments-who-if-anyone-is-liablewhen-it-goes-wrong-tyndaris-v-vwm).
  • Revendications en matière de droits de l'homme et litiges pour discrimination : Au Royaume-Uni, la Cour d'appel a examiné les droits de l'homme dans le contexte des systèmes de reconnaissance faciale alimentés par l'IA. Dans l'affaire R (Bridges) c. Chief Constable of South Wales Police and others en 2020, la Cour d'appel a jugé que l'utilisation de la technologie de reconnaissance faciale automatisée n'était pas appliquée "conformément à la loi", en particulier avec le droit au respect de la vie privée et familiale en vertu de la Convention européenne des droits de l'homme. Le tribunal a censuré la force de police sur son évaluation de l'impact sur la protection des données et a déclaré qu'aucune mesure raisonnable n'avait été prise pour éviter que la technologie ait un biais racial ou de genre (pour plus d'informations, voir https://www.libertyhumanrights.org.uk/issue/legal-challenge-ed-brid-ges-v-south-wales-police/). Dans une autre affaire notable, l'État du Michigan a annoncé qu'il avait atteint un règlement de 20 millions de dollars pour résoudre un recours collectif selon lequel l'agence de l'assurance chômage de l'État utilisait un système d'arbitrage automatisé pour accuser à tort les bénéficiaires de fraude présumée, entraînant la saisie de leurs biens sans procédure régulière. Le Michigan Integrated Data Automated System (MiDAS) était utilisé pour détecter et juger automatiquement les fraudes présumées. Malheureusement, le système, en raison de mauvais algorithmes, a commencé à accuser faussement les demandeurs d'assurance chômage sans ou avec trop peu de supervision humaine (pour plus d'informations, voir par exemple https://michiganadvance.com/briefs/thousands-of-michiganders-falsely-accused-of-unemployment-fraud-get-20m-settlement/).
  • Litiges en matière de responsabilité du produit : Les litiges en matière de responsabilité du produit existent depuis plus longtemps dans le domaine des litiges logiciels. Cela découle du fait que les logiciels (bien qu'ils ne soient pas qualifiables comme "produit" tangible en vertu des lois suisses sur la responsabilité des produits de manière isolée) peuvent dans certaines constellations (en particulier, s'ils sont intégrés dans des systèmes informatiques holistiques incluant matériel et logiciel) être qualifiés de produit et être soumis aux lois suisses sur la responsabilité des produits. Dans le contexte de l'IA, des développements supplémentaires sont à l'horizon proche car bientôt, la nouvelle directive européenne sur la responsabilité de l'IA entrera en vigueur aux côtés du régime général de responsabilité des produits. En vertu de cette directive, il y aura des présomptions réfutables pour faciliter la demande de compensation par les individus en raison de dommages causés par l'IA (et pour atteindre la charge de preuve requise). La directive est censée s'appliquer aux réclamations présentées en vertu de régimes de responsabilité basés sur la faute et un mécanisme est prévu pour que les défendeurs réfutent les présomptions (pour plus d'informations sur la directive européenne sur la responsabilité de l'IA, voir https://commission.europa.eu/business-economy-euro/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_en). La directive européenne sur la responsabilité de l'IA s'appliquera en plus/séparément de la loi européenne sur l'IA (pour plus d'informations sur la loi européenne sur l'IA, voir https://cms.law/en/che/publication/ai-series-1-the-eu-artificial-intelligence-act-is-almost-ready-to-go).

3. Mesures à prendre pour les entreprises afin de limiter leurs risques de litiges liés à l'IA

 

  • Choisissez et testez des systèmes d'IA qui sont robustes et testés selon vos besoins. En outre, une formation adéquate devrait être fournie aux utilisateurs sur la manière d'utiliser les systèmes d'IA en toute sécurité, y compris des mesures de sécurité et de gouvernance adéquates pour garantir que les systèmes ne sont pas simplement externalisés à des fournisseurs tiers mais restent supervisés sous la responsabilité de l'entreprise.
  • Informez les clients si l'IA est utilisée pour fournir des services et proposez des clauses de non-responsabilité pour limiter votre exposition à la responsabilité.
  • Assurez-vous de documenter la conception et le fonctionnement d'un système d'IA afin d'être capable d'expliquer comment les systèmes fonctionnent si requis par les autorités de surveillance. Même dans les litiges civils habituels, en vertu des principes de preuve, un opérateur de système d'IA peut être tenu d'expliquer son système et l'incapacité de le faire peut, par exemple, en Suisse, être évaluée selon le libre discernement d'un juge au détriment de l'opérateur de système d'IA. Enfin, soyez réticent à utiliser des preuves générées par l'IA elles-mêmes, car elles pourraient ne pas être considérées comme crédibles selon le libre discernement d'un juge (par exemple, des vidéos deepfake d'un discours d'une partie qui s'avère fausse - tout cela est déjà arrivé dans des affaires judiciaires).
  • Appliquez des exclusions contractuelles limitant la responsabilité des garanties pour les systèmes d'IA défectueux ou les résultats (si le système est intégré dans un produit générateur de résultats).
  • Appliquez des processus pour protéger les risques pour les consommateurs, par exemple des politiques pour garantir la révision des résultats de l'IA pour des biais ou des erreurs, l'exclusion des informations confidentielles au niveau de l'entrée et/ou pour assurer préalablement la conformité aux principes de protection des données lors de l'alimentation de l'IA avec des données au niveau de l'entrée.
  • Proposez des options techniques de contestabilité dans le cas où un client n'est pas d'accord avec l'utilisation de l'IA ou le résultat généré par celle-ci. L'immutabilité des résultats de l'IA conduit inévitablement à des conflits avec les réclamations correctives des clients en droit. Être capable d'adresser et de modifier les résultats insatisfaisants de l'IA aidera à éviter des litiges de responsabilité longs dès le départ. Soyez conscient que la non-contestabilité technique peut conduire à des décisions de justice appelant à des injonctions permanentes interdisant l'utilisation d'un outil d'IA spécifique. Cela n'est ni dans l'intérêt du développeur de l'outil d'IA ni des utilisateurs qui en dépendent fortement lorsqu'ils l'intègrent dans leurs propres produits. L'interdiction d'injonction permanente entraînerait une "indisponibilité" générale qui pourrait déclencher des réclamations de responsabilité supplémentaires envers le développeur de l'outil d'IA. De tels scénarios sont à éviter au mieux.
  • Soyez conscient des risques juridictionnels lors de l'offre/présentation d'un système d'IA sur le marché. Lorsqu'un système d'IA est développé ou déployé dans différentes juridictions, il peut être difficile de déterminer quelle loi et quel tribunal sont finalement applicables. Par exemple, les traités multilatéraux sur la juridiction suggèrent que les actions peuvent être intentées sur le territoire où un dommage est subi, où les actes infractionnels ont été commis, où le défendeur est domicilié ou, par exemple, sur quel marché une violation de droit de propriété intellectuelle a son impact.

Auteurs

Dirk Spacek
Dr Dirk Spacek, LL.M.
Associé
Co-responsable des groupes TMC et Propriété intellectuelle
Zurich

Newsletter

Stay informed by subscribing to our newsletter.