L’exemple de l’« effet Ghibli »
Une proposition récente du générateur d’images d’OpenAI a ravivé les inquiétudes des créateurs visuels. De nombreux utilisateurs ont pu générer, à l’aide de prompts, des images imitant parfaitement le style emblématique du studio japonais Ghibli.
Cette pratique, rapidement restreinte par OpenAI, soulève une question fondamentale : ces outils d’intelligence artificielle (IA) générative sont-ils des leviers de créativité ou dotent-ils surtout les tiers de moyens puissants et accessibles d’enfreindre les droits des titulaires ? Le cas Ghibli illustre les zones grises juridiques autour de l’entraînement des IA et de la protection des styles graphiques. Il estprétexte à une réflexion plus générale sur la fragilisation des droits de propriété intellectuelle par ces outils.
1. Les risques d’atteintes aux droits de propriété intellectuelle résultant de l’IA générative
L’entraînement des modèles d’IA sur des éléments protégés
Les modèles d’IA ont été massivement entraînés à partir d’un corpus d’éléments extraits de sites internet accessibles en ligne, parmi lesquels figurent des éléments graphiques et verbaux anodins mais aussi des marques, dessins et modèles, données et œuvres de l’esprit.
En matière de droit d’auteur, l’article 4 de la directive sur le droit d’auteur et les droits voisins dans le marché unique numérique (DAMUN)1 permet la fouille automatisée de textes et de données (Text and Data Mining) mais l’assortit d’une condition : l’absence de manifestation par les titulaires de droits de leur opposition à l’utilisation de leurs œuvres et autres objets protégés à cette fin (opt-out). En pratique, soucieux de bénéficier d’une avance technologique et confrontés à la difficulté de distinguer les éléments protégés de ceux libres de droits, les fournisseurs d’IA générative les ont souvent indistinctement inclus dans leurs bases d’apprentissage. En parallèle, les titulaires ne bénéficient ni d’un outil standard unique pour manifester leur opt-out, ni des moyens de vérifier le respect de cette manifestation2. L’efficacité du mécanisme étant relative, les risques d’atteinte sont caractérisés.
Aux Etats-Unis, une cour fédérale a récemment jugé que l’utilisation d’œuvres protégées à des fins d’entraînement ne relevait pas d’un usage loyal (fair use), exception à la protection des œuvres en droit américain3. Dans cette affaire, Thomson Reuters reprochait à Ross Intelligence l’usage de sa base de données pour entraîner une plateforme concurrente de recherche juridique alimentée par l'IA générative. Le juge a considéré que les conditions de l’exception de fair use n’étaient pas réunies et, en particulier, que l’usage précité affectait les marchés existants et potentiels de la recherche juridique fondée sur l'IA. La décision a souligné que cela ne concernait pas seulement le service d'abonnement, mais aussi l'octroi potentiel de licences sur ses données à des fins d’entraînement de l’IA.
En France, le 6 mars 2025, le Syndicat national de l’édition (SNE), la Société des gens de lettres (SGDL) et le Syndicat national des auteurs et des compositeurs (SNAC) ont assigné Meta Platforms Inc. devant le tribunal judiciaire de Paris aux motifs que cette société aurait utilisé, sans autorisation, la base de données « Book3 » contenant environ 200 000 livres pour entraîner son modèle d’IA « Llama », sans obtenir au préalable l’autorisation des auteurs ou de leurs ayants droit. Les demandeurs invoquent non seulement une atteinte au droit d’auteur, mais aussi des actes de parasitisme. L’issue de cette décision est très attendue.
Sous l’angle du traitement des données, les fournisseurs d’IA ont souvent recours à la notion d’« intérêt légitime » décrite à l’article 6 du RGPD4 qui permet, sous trois conditions, de traiter des données sans obtenir le consentement des personnes concernées. Néanmoins, l’intérêt poursuivi doit être (i) légitime et manifestement licite, (ii) nécessaire en raison de l’absence d’autres moyens de mettre en œuvre le traitement envisagé et (iii) proportionné dans son impact sur les droits des personnes dont les données sont traitées. Or les modèles d’IA pourraient - en théorie - être entraînés sur des données dont le traitement aurait été au préalable autorisé par les titulaires de droits, même si, en pratique, cela constitue une contrainte pour les entreprises qui les développent.
Par conséquent, les modalités d’élaboration des systèmes d’IA générative s’accompagnent de fréquentes atteintes, néanmoins difficiles à caractériser en raison de l’opacité entourant les contenus des bases d’apprentissage. Afin d’endiguer ces atteintes, l'IA Act prévoit désormais une obligation à la charge des fournisseurs de modèles d'IA de mettre à la disposition du public un résumé du contenu utilisé pour leur entraînement5.
La participation involontaire du titulaire à la divulgation de ses contenus
Les risques peuvent également résulter de l’usage des outils d’IA générative par les titulaires de droits eux-mêmes.
En effet, les outils de conception créative à base d’IA générative se sont généralisés. Or, le téléchargement d’œuvres de l’esprit, de marques ou de dessins et modèles sur des plateformes d’IA générative, aux fins de les modifier, exposent leurs titulaires au risque que ces éléments soient intégrés à l’entraînement ultérieur du système, sans contrôle sur l’utilisation qui pourrait ensuite en être faite par des tiers utilisateurs.
Il est donc essentiel, pour les détenteurs de droits, de négocier les conditions d’utilisation des outils d’IA afin de s’assurer que leurs droits soient préservés et que toute donnée reste confidentielle. Une garantie de maintien des éléments dans un circuit strictement fermé doit notamment être obtenue.
Il est également indispensable de sensibiliser les employés à l’usage des outils, via l’élaboration de politiques internes et la conduite de formations.
La génération de contenus contrefaisants
Les utilisateurs peuvent générer, via des prompts, des contenus qui s’inspirent fortement, voire incluent à l’identique, des œuvres protégées ou des signes distinctifs (marques, dessins et modèles), de manière délibérée ou involontaire. Leur responsabilité peut ensuite se trouver engagée, et ce, même s’ils n’avaient pas connaissance du caractère contrefaisant du contenu généré. En effet, la bonne foi est indifférente dans l’appréciation de la contrefaçon par les juges6.
La soumission de prompts incluant délibérément des signes distinctifs est à ce jour acceptée sans filtre par de nombreux outils d’IA générative. A titre d’exemple, il est possible de citer des marques existantes pour créer un signe similaire ciblant la même clientèle. Dans cette hypothèse, tout au plus est-il recommandé à l’utilisateur de vérifier la disponibilité du signe choisi pour éviter tout conflit avec des marques existantes.
Les fournisseurs d’IA générative en appellent en effet à la responsabilité de l’utilisateur. Les conditions d’utilisation d’OpenAI, par exemple, précisent que les contenus générés appartiennent à l’utilisateur, qui est responsable des données d’entrée et de sortie. Si l’utilisateur est indubitablement responsable du prompt qu’il a soumis, il est en revanche impuissant à identifier si le corpus d’entraînement de l’outil utilisé a été constitué dans le respect ou non de la législation applicable.
II. L’encadrement des comportements attentatoires aux droits de propriété intellectuelle
L’encadrement législatif existant
Les textes législatifs actuels sont pleinement pertinents pour sanctionner les atteintes aux droits de propriété intellectuelle, qu’il s’agisse du droit des marques, du droit d’auteur ou du droit des dessins et modèles. L’exploitation d’une donnée de sortie (« output »), générée grâce à l’IA, peut exposer à des poursuites pour contrefaçon ou parasitisme, selon des critères identiques à tout élément généré par des méthodes plus classiques.
Les nouveaux usages repoussant les limites des textes
L'essor de l'IA générative et les nouveaux usages qui en sont faits mettent néanmoins à l'épreuve la capacité d'adaptation des textes existants, sous certains angles.
La contrefaçon d’un style. Plutôt que de reproduire des œuvres précises, l’IA permet la reproduction de styles artistiques, soulevant la question de la protection du « style » par le droit d’auteur, distincte de celle d’une œuvre individualisée. Si le style d’un studio de dessins animés ou d’un auteur, tel un écrivain ou un peintre, est difficilement protégeable, des actions en parasitisme ou en concurrence déloyale peuvent être envisagées.
Néanmoins, la contrefaçon pourrait être retenue à condition de pouvoir qualifier l’originalité de l’ensemble de la filmographie des studios Ghibli, et non d’œuvres ou d’images isolées. Les traits des personnages, la colorimétrie des films réalisés par Hayao Miyazaki sont-ils suffisamment empreints de la personnalité de ce dernier pour être originaux ? Même si l’originalité venait à être reconnue, est-ce que la diffusion d’images imitant ce style pourrait être constitutive d’atteinte aux droits d’auteur détenus par le studio Ghibli ? Une personne physique diffusant une image générée par une IA « façon studio Ghibli » sur ses réseaux sociaux pourrait-elle se réfugier derrière l’exception de « cercle de famille »7, évitant tout risque d’atteinte aux droits d’auteur du studio Ghibli ? La réponse est probablement à moduler en fonction du nombre et du profil des abonnés du compte concerné.
Le phénomène des « starter packs ». Après la tendance « Studio Ghibli », la mode des « Starter Packs IA » a conduit les utilisateurs à générer des visuels de figurines en 3D personnalisées sous emballage plastique, accompagnée d’accessoires représentatifs de la personne choisie, à la manière de poupées vintage. Cette pratique soulève des problématiques à la croisée du droit à l’image et des droits de propriété intellectuelle, notamment lorsque des signes distinctifs sont reproduits sans le consentement de leur titulaire (par exemple, un gobelet brandé « Starbucks », une paire de Converse, un iPhone, etc.). Sous l’angle du droit des marques, il convient d’apprécier s’il existe un usage « à titre de marque » et « dans la vie des affaires ». La jurisprudence Adam Opel c/ Autec de la CJUE8, selon laquelle ne constitue pas nécessairement un usage illicite l'apposition par un tiers du logo « Opel » sur des modèles réduits de voiture, semble ici transposable.
L’utilisation de contenus protégés dans un prompt. On peut se demander si l’input est lui aussi, au même titre que l’output, susceptible d’être contrefaisant. Prenons l'exemple d'une agence qui souhaite créer un logo s'inspirant de marques déposées, dans le but de concevoir un visuel efficace auprès des consommateurs, voire évocateur des logos de ses concurrents déjà présents sur le marché. Si un utilisateur demande explicitement à l’IA de s’inspirer de marques ou d’œuvres protégées dans son prompt, son comportement semble susceptible d’être sanctionné davantage sur le terrain du parasitisme que de la contrefaçon.
Les garanties données par les fournisseurs d’IA
Face à ces risques, les fournisseurs d’IA mettent en place des mesures techniques (tels que les filtrages de prompts, fenêtres informatives) pour limiter la génération de contenus contrefaisants. Désormais, OpenAI bloque certains prompts liés à des styles protégés, mais il reste possible pour les utilisateurs de contourner ces blocages par la rédaction de nouveaux prompts ; ce qui ne dispense pas l’utilisateur de faire preuve de vigilance et de responsabilité.
Les sociétés d’IA se sont engagées, pour la majorité, comme Microsoft, à prendre en charge les frais de justice et dommages et intérêts pour leurs clients utilisateurs de leurs modèles d’IA en cas de poursuites pour violation de droits de propriété intellectuelle, pour les résultats générés par ce système. Microsoft a également mis en place un filtrage de contenu et un système de détection des abus, y compris ceux qui sont susceptibles d'enfreindre le contenu des tiers. Ces garde-fous ne sont néanmoins pas généralisés.
Vers un encadrement renforcé des productions générées
Le cadre juridique actuel est en pleine évolution. L’avis 28/2024 du Comité européen de la protection des données, et l’entrée en application prochaine du règlement (UE) 2024/1689 (IA Act), encadrent le développement et l’utilisation de ces nouvelles technologies et notamment de l’IA générative.
En ce sens, l’article 53 de l’IA Act – qui entrera en application le 2 août 2025 – impose aux plateformes développant des systèmes d’IA générative la fourniture d’« un résumé détaillé de l’utilisation des données d’entraînement protégées par le droit d’auteur ».
Le rapport du CSPLA du 11 décembre 2024 propose un modèle de résumé détaillé du contenu utilisé pour l’entraînement des modèles à usage général, accessible au public9. Ce modèle se présente sous la forme d’un tableau portant sur les contenus libres de droits et les contenus non libres de droits, dont le jeu de données doit être listé et décrit, notamment pour les contenus issus d’Internet pour lesquels les URL moissonnées doivent être indiquées :
Cette obligation controversée devrait participer à la garantie d’un équilibre et à l’assurance d’une protection -minimale- aux titulaires de droits.
***
Le cas Studio Ghibli, au-delà de l’anecdote, cristallise les tensions entre fournisseurs d’IA, titulaires de droits et utilisateurs. Alors que les outils d’IA générative se perfectionnent à grande vitesse, le cadre juridique et la jurisprudence doivent s’adapter pour assurer une protection effective des droits protégés, sans freiner excessivement le développement de ces technologies enthousiasmantes.
1 Directive transposée en droit français en 2021. L’article 4§1 de la directive DAMUN dispose : « Les États membres prévoient une exception ou limitation (…) pour les reproductions et les extractions d'œuvres et d'autres objets protégés accessibles de manière licite aux fins de la fouille de textes et de données ». L’article 4§3 prévoit : « L'exception ou la limitation prévue au paragraphe 1 s'applique à condition que l'utilisation des œuvres et autres objets protégés visés audit paragraphe n'ait pas été expressément réservée par leurs titulaires de droits de manière appropriée, notamment par des procédés lisibles par machine pour les contenus mis à la disposition du public en ligne ».
2 Le rapport de l’EUIPO « Development of Generative Artificial Intelligence from a Copyright Perspective » daté de mai 2025 analyse les moyens techniques et légaux d’exercice de l’opt-out ainsi que leurs avantages et limites respectives.
3 Décision de la District Court de Delaware du 11 février 2025, Thomson Reuters Enterprise Centre GmbH et West Publishing Corp. c. Ross Intelligence Inc., No. 1:20-cv-613-SB
4 Article 6.1.f du règlement général de protection des données (UE) 2016/679 qui prévoit que : « Le traitement n'est licite que si, et dans la mesure où, au moins une des conditions suivantes est remplie: (…) f) le traitement est nécessaire aux fins des intérêts légitimes poursuivis par le responsable du traitement ou par un tiers, à moins que ne prévalent les intérêts ou les libertés et droits fondamentaux de la personne concernée qui exigent une protection des données à caractère personnel, notamment lorsque la personne concernée est un enfant. »
5 Article 53.1.d : « Les fournisseurs de modèles d'IA à usage général doivent : (…) rédiger et mettre à la disposition du public un résumé suffisamment détaillé du contenu utilisé pour la formation du modèle d'IA à usage général, selon un modèle fourni par l'Office AI ».
6 Cass. 1re civ., 10 juillet 2013, n° 12-19.170.
7 L’article L. 122-5 du Code de la propriété intellectuelle prévoit que « lorsque l'œuvre a été divulguée, l'auteur ne peut interdire : 1° Les représentations privées et gratuites effectuées exclusivement dans un cercle de famille ».
8 CJUE, 25 janvier 2007, C-48/05
9 https://controverses.minesparis.psl.eu/public/promo24/PC7-IA-et-droit-d-auteur.pdf, page 10.