L’IA générative présente de nombreuses opportunités pour les entreprises, mais cette technologie innovante soulève également de nouvelles problématiques juridiques. Comment déployer les outils utilisant l’IA générative tout en maîtrisant les risques ?
La diffusion des outils utilisant les techniques d’intelligence artificielle (IA) au sein des entreprises semble inéluctable. Les possibilités offertes par cette technologie sont innombrables, et parmi elles certaines pourraient générer, à court terme, des gains de productivité qui pourraient s’élever jusqu’à 40 %1. Dans ce contexte, il semble difficile pour les entreprises de ne pas céder au chant des sirènes de l’IA. L’adoption de ces outils n’est toutefois pas anodine et soulève des questions complexes tant cette technologie bouleverse nos schémas de pensées habituels.
L’IA générative est une catégorie au sein des systèmes d’intelligence artificielle qui permet de créer des contenus, tels que du texte, des images, du code, de la musique ou des vidéos en réponse à une requête formulée par son utilisateur (le prompt en anglais). De manière simplifiée, le modèle d’IA va analyser le prompt et son contexte pour générer une réponse en fonction de ses connaissances et des schémas appris sur la base de ses données d’entraînement.
Ce résultat (output content) est en réalité l’inférence, la prédiction ou la recommandation qui semble, pour le modèle, la plus pertinente en réponse au prompt formulé par l’utilisateur.
On le devine aisément, ce processus et le contenu généré soulèvent des problématiques et des risques en matière de propriété intellectuelle.
Un risque de violation des droits des tiers
Il existe un risque de violation des droits des tiers mais aussi des actifs immatériels de l’entreprise en cas d’utilisation non maîtrisée des outils d’IA. L’IA générative repose essentiellement sur des grands modèles de langage2 (« LLM ») qui ont été entraînés sur une vaste quantité de données, essentiellement des sources textuelles, des livres, des articles et des sites internet en libre accès. Nous laisserons ici de côté la question de la légalité de l’entraînement du modèle3 sur ces
données, qui incombe essentiellement à son concepteur mais qui doit faire l’objet d’une attention particulière dans le choix de la technologie par l’entreprise et sa contractualisation comme souligné ci-après.
Dans le cadre des usages de l’IA en entreprise, c’est donc principalement le résultat généré par la requête de l’utilisateur et la façon dont il va être exploité par l’entreprise qui constituent les risques les plus importants.
En l’absence de mise en place de mesures préventives, l’utilisation de ce contenu peut en effet donner lieu à des actions de tiers alléguant que le contenu généré viole un droit de propriété intellectuelle préexistant (principalement en matière de droits d’auteur, marque, brevet ou logiciel).
Par exemple, si le résultat généré reproduit de manière illicite la marque protégée d’un tiers et que l’entreprise l’exploite à titre de marque4. Ces actions peuvent déboucher sur une condamnation de l’entreprise à des dommages et intérêts, des mesures d’injonction ou des dommages réputationnels.
L’entreprise doit également connaître en amont les droits qu’elle détient sur le contenu généré afin de pouvoir l’utiliser largement voire le commercialiser. Mais elle doit aussi prendre garde aux droits qu’elle est susceptible de concéder sur son propre contenu (les prompts).
Bien que certains fournisseurs de modèles d’IA génératives s’engagent à ne pas réutiliser pour leurs propres fins les éléments communiqués par l’utilisateur, d’autres les réutilisent pour entraîner leurs modèles, ce qui peut porter atteinte aux actifs immatériels de l’entreprise (perte de confidentialité, divulgation de savoir-faire) lesquels pourraient hypothétiquement se retrouver dans les résultats générés par un autre utilisateur de ces outils5.
Un encadrement des usages et des mesures préventives
Il est nécessaire d’envisager un encadrement des usages en interne et la mise en place de mesures préventives. La mise en place d’outils de production à base d’IA générative doit être accompagnée par des actions de formation à destination du personnel et une politique d’utilisation.
Cette politique pourra préciser les objectifs, les cas d’usages autorisés par l’entreprise ainsi que les
points de vigilance élémentaires6.
L’entreprise est également encouragée à mettre en place des mesures techniques limitant les risques de création et de diffusion de contenu violant les droits de tiers. Il peut s’agir de filtres visant à détecter un éventuel contenu contrefaisant ou de mesures visant à améliorer les résultats générés, comme le prompt engineering7.
Une évaluation nécessaire des mesures techniques et des garanties proposées par les fournisseurs d’IA
Il apparaît en outre indispensable d’évaluer les mesures techniques et les garanties mises en place par les fournisseurs de solutions d’IA génératives. Si l’entreprise entend avoir recours à un modèle d’IA générative conçu ou fourni par un tiers – ce qui sera vraisemblablement le cas pour de nombreuses entreprises, un développement complet d’un système d’IA sans l’utilisation d’un modèle de base nécessitant des ressources humaines et techniques importantes – elle devra s’assurer qu’il présente des garanties suffisantes tant techniques que contractuelles afin de conserver la maîtrise des risques liés à son usage.
Certains fournisseurs d’outils d’IA générative mettent en place de manière native des mesures de nature à limiter les risques de violation de droits des tiers via des filtres de contenu ou des mécanismes de détection des abus. Les conditions d’hébergement des données des utilisateurs et la façon dont les prompts et le contenu généré sont utilisés par le fournisseur8 sont des points fondamentaux dans l’analyse de risque. Le modèle ayant certainement été entraîné sur des oeuvres ou des données de tiers, l’entreprise devra veiller à ce que le fournisseur soit en mesure de lui proposer une garantie solide sur les éventuels recours de tiers en matière de propriété intellectuelle.
De même, l’entreprise devra s’assurer que le fournisseur ne prévoit pas dans son contrat une cession ou une licence sur le contenu généré à son profit, ce qui serait de nature à entraver la libre disposition de ce contenu par l’entreprise.
S’il n’est pas possible de présenter ici toutes les offres et garanties mises en place par les prestataires proposant des solutions d’IA générative, quelques-unes, parmi les plus connues, peuvent néanmoins être signalées à titre d’illustration. Ainsi Microsoft, qui intègre dans ses applications d’IA générative les modèles de la société OpenAI, créatrice du fameux ChatGPT, a d’ores et déjà mis en place de nombreux garde-fous comme les filtres de contenus, la mise en place de metaprompts et l’absence de réutilisation des contenus générés à des fins d’entraînement des modèles de ses applications (dont ceux d’OpenAI). Cette dernière mesure répond à l’une des premières craintes exprimées par la plupart des autorités européennes lors du lancement de ChatGPT.
Microsoft a par ailleurs très récemment annoncé la mise en place d’un mécanisme de garantie pour ses clients professionnels sur le contenu généré par ses outils utilisant de l’IA générative (y compris pour la distribution de ce contenu par les utilisateurs) contre les actions émanant de tiers fondées sur la violation d’un droit de propriété intellectuelle9. Cette garantie couvre la quasi-totalité des produits Microsoft utilisant de l’IA générative10. Il ne s’agit pas non plus d’un blanc-seing dans la mesure où l’utilisateur demeure responsable s’il contourne les mesures techniques de filtrage des contenus ou commercialise un contenu manifestement contrefaisant (en reproduisant par exemple une marque notoirement connue).
D’autres prestataires proposent certainement des garanties différentes ou approchantes, qu’il conviendra d’explorer au besoin, et cette approche est bienvenue en ce qu’elle tend à favoriser la
diffusion d’une technologie particulièrement novatrice, dans une logique de responsabilisation de
ses acteurs.
C’est en analysant finement ses cas d’usage, puis en mettant en place des mesures d’encadrement internes et d’évaluation des prestataires qu’une entreprise pourra mener avec succès un projet d’IA générative tout en maîtrisant sa responsabilité juridique.
Points clés
- L’IA générative présente d’indéniables opportunités, mais elle ne doit être utilisée que dans un cadre sécurisé.
- L’utilisation incontrôlée de l’IA générative expose l’entreprise à des risques d’actions de tiers invoquant la violation d’un droit de propriété intellectuelle.
- La maîtrise de ces risques passe par la mise en place de mesures de sensibilisation du personnel et de procédures internes, mais également par l’évaluation des pratiques et garanties appliquées par les fournisseurs de ces technologies.
Article paru dans Option Finance Innovation le 11/12/2023
1. Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality, Harvard Business School Technology & Operations Mgt. Unit Working Paper No. 24-013, 15 septembre 2023.
2. Large Language Models.
3. La question de la légalité de l’entraînement des modèles sur des oeuvres protégées par le droit de la propriété intellectuelle (notamment par le droit
d’auteur) est particulièrement complexe et demeure encore ouverte sur certains aspects en l’absence d’une décision de justice fondatrice ou d’un cadre législatif
adapté. Nous pouvons relever à ce titre qu’une proposition de loi n° 1630 visant à encadrer l’intelligence artificielle par le droit d’auteur a été déposée à l’Assemblée nationale le 12 septembre 2023.
4. Ce qui dans les faits est peu vraisemblable si le prompt ne contient pas lui-même la marque de tiers.
5. Et dans le pire des cas un concurrent direct de l’entreprise.
6. Par exemple la réalisation de recherches d’antériorité avant le dépôt d’une marque générée par l’IA.
7. Le prompt engineering est un procédé visant à améliorer les résultats de l’IA générative en appliquant sur le prompt différentes techniques d’optimisation, comme l’utilisation de la forme positive, l’ajout d’exemples, etc.
8. Notamment à des fins d’entraînement du modèle du fournisseur.
9. https://www.microsoft.com/en-us/licensing/news/Microsoft-Copilot-Copyright-Commitment.
https://news.microsoft.com/fr-fr/2023/11/15/microsoft-ignite-2023-microsoft-etend-lexperience-copilot-de-la-productivite-a-la-cybersecurite/.
10. Le service Azure OpenAI et les autres services d’IA générative de Microsoft contenant des métaprompts et des mesures de sécurité configurables.
En savoir plus sur notre cabinet d’avocats :
Notre cabinet d'avocats est l’un des principaux cabinets d’avocats d’affaires internationaux. Son enracinement local, son positionnement unique et son expertise reconnue lui permettent de fournir des solutions innovantes et à haute valeur ajoutée dans tous les domaines du droit.
|
|
|