Home / Actualités / Réglementer l’intelligence artificielle

Réglementer l’intelligence artificielle

De l'importance de réglementer l’intelligence artificielle pour qu’elle reste au service du citoyen

04/07/2019

L’intelligence artificielle est au cœur de nombreux produits et services émergents, sur lesquels les investisseurs ont envie de parier. Mais pour s’assurer que les acteurs impliqués, parmi lesquels les opérationnels intervenant de la conception à la diffusion d’une IA, soient fiables et sûrs, ils doivent évoluer dans un cadre juridique clair. Celui-ci fait actuellement l’objet de réflexions, notamment sur les aspects éthiques et sociaux à prendre en compte. 

D’Asimov et ses célèbres lois à Masahiro Moriet sa vallée de l’étrange, les auteurs de science-fiction ont très tôt développé des théories sur les rapports êtres humains/machines. Mais ce n’est que récemment que les questions d’éthique appliquées aux nouvelles technologies ont dépassé le genre littéraire pour s’imposer dans le débat public.

Des scientifiques, dont Stephen Hawking, Elon Musk ou encore Stuart Russel, ont élevé la voix pour qu’une véritable réflexion sur l’intelligence artificielle ait lieu afin d’en maximiser les bénéfices sociaux3. De même, les premiers débats sur l’impact que peut avoir la capacité de mimétisme émotionnel de certains robots sont en train d’émerger.

Cependant, il convient de ne pas limiter l’intelligence artificielle à des robots ou autres machines intelligentes. Pour l’appréhender dans son ensemble, il convient de s’intéresser à ce qui constitue sa base, à savoir les algorithmes. Ils sont définis comme une suite finie et non ambiguë d’opérations ou d’instructions permettant, à l’aide d’entrées, de résoudre un problème ou d’obtenir un résultat, ces sorties étant réalisées selon un certain rendement4.

Le développement de ces programmes et la création de la première véritable intelligence artificielle, capable d’apprendre et de prendre des décisions de manière autonome, sont la clé du futur leadership mondial entraînant la Chine, les Etats-Unis et l’Europe dans une course à l’innovation. À la suite du rapport Villani5, Emmanuel Macron a annoncé un « plan intelligence artificielle » d’1,5 milliard d’euros sur 5 ans, dont 665 millions d’ici 2022. Il souhaite également stimuler les investissements privés dans la recherche afin de rivaliser avec les 3 milliards investis par les Allemands ou les 150 milliards chinois.

Or, le meilleur moyen pour attirer les investisseurs est de s’assurer que les différents acteurs inspirent confiance et qu’ils évoluent dans un cadre juridique clair. Pour cela, il convient de les responsabiliser et d’intégrer un nouveau principe appelé ethic by design à tous les opérationnels intervenant de la conception à la diffusion d’une intelligence artificielle.

Responsabiliser les différents acteurs 

Le perfectionnement des programmes informatiques actuels leur confère une aura d’infaillibilité et de neutralité poussant les utilisateurs à leur accorder une confiance aveugle. De nombreuses tâches décisionnelles sont déléguées à des systèmes algorithmiques complexes et segmentés. Si cette délégation permet d’accélérer de nombreux processus, la Commission nationale de l’informatique et des libertés (Cnil) craint une dilution des responsabilités.

Au-delà des questions de perte d’autonomie de l’humanité, il convient de s’interroger sur la responsabilité d’une décision prise par un algorithme. Cette question est d’autant plus importante que la plupart des entreprises technologiques ne parviennent pas à garantir la fiabilité de leur système6. Par exemple, un logiciel de reconnaissance faciale7 a accusé à tort un étudiant de vol ; celui-ci réclame désormais 1 milliard de dollars à Apple en réparation.

En effet, contrairement à l’opinion majoritaire, les algorithmes ne sont ni infaillibles, ni neutres. Ils peuvent reproduire des discriminations ou être biaisés, car construits sur des jeux de données non représentatifs. Une étude a par exemple démontré que de nombreux logiciels implémentés par les juridictions et la police américaine étaient basés sur des données faussées par des préjugés raciaux ou issus de pratiques policières entachées d’irrégularité8.

De nombreuses solutions sont proposées pour atténuer ou supprimer ces biais. Le rapporteur de la mission Villani sur l’intelligence artificielle9 propose, en amont, une plus grande circulation des données, dont celles à caractère personnel. Seule une politique offensive pour favoriser l’accès aux données personnelles et leur circulation permettra à de petits acteurs de pénétrer sur le marché économique des nouvelles technologies en s’appuyant sur des jeux de données personnelles de bonne qualité.

Le rapport Villani10 propose de se concentrer sur 4 secteurs : la santé, l’écologie, les transports et la défense. L’Union européenne elle-même, avec la refonte de la directive PSI11 souhaite faire un pas supplémentaire vers le marché unique numérique.

De plus, de nombreux acteurs ont souligné l’importance d’une plus grande mixité au sein des entreprises impliquées dans le développement de l’intelligence artificielle. Cette mixité doit jouer autant au niveau de la conception des algorithmes qu’à une plus grande échelle en évitant que la recherche et la conception soient réservées à quelques sociétés et universitaires12

La sensibilisation à l’éthique des opérationnels du secteur et la création de lignes de lanceurs d’alerte pourront également constituer des facteurs de responsabilisation importants. La mise en place de ces mesures pourra être accompagnée par la création d’un chief digital officer chargé du respect et de la cohérence de la politique éthique et numérique d’une entreprise.

Cela dit, ces solutions d’auto-régulation trouveraient plus leur place dans une charte que dans une loi.

De manière plus concrète, le législateur pourrait responsabiliser les concepteurs d’algorithmes en réduisant leur opacité. Cette transparence s’appliquerait à toute la chaîne de développement. Inspirés des recommandations du rapport Tricot13, la loi du 6 janvier 1978 modifiée14 et le Code des relations entre le public et l’Administration15 ont imposé aux administrations qui recourent à des prises de décisions individuelles automatisées de s’assurer de la maîtrise du traitement algorithmique et de ses évolutions. Cette maîtrise se traduit par la capacité de l’Administration à pouvoir expliquer, aux personnes concernées, en détail et sous forme intelligible le traitement mis en œuvre. Si ces obligations réduisent l’opacité administrative, quelques auteurs16 considèrent que cette dernière est loin d’avoir été supprimée. Cependant, ces obligations imposées à l’administration pourraient servir de modèle pour les entreprises privées afin de réduire l’impression de « boîte noire » de ces systèmes17. Certains membres de l’IA Now Institute vont jusqu’à exiger la suppression du secret des affaires, au moins pour les entreprises développant des logiciels à destination des administrations.

Pour les entreprises du secteur privé, cette responsabilisation pourrait se faire par le développement d’audits des systèmes algorithmiques. La Cnil appelle au développement d’une plateforme nationale d’audit18 alors que le rapporteur de la mission Villani invite à investir dans la recherche sur l’explicabilité de l’IA19. Pour être efficace, l’instauration de telles mesures doit avoir comme contrepoids la création d’une norme à respecter.

Instaurer le principe d’ethic by design 

Asimov écrivait : « un robot ne peut porter atteinte à un être humain, ni en restant passif, permettre qu’un être humain soit exposé au danger»20. Le législateur français a préféré écrire : « l'informatique doit être au service de chaque citoyen. Son développement doit s'opérer dans le cadre de la coopération internationale. Elle ne doit porter atteinte ni à l'identité humaine, ni aux droits de l'homme, ni à la vie privée, ni aux libertés individuelles ou publiques21 ». Si les nouvelles technologies peuvent avoir des effets extrêmement bénéfiques, elles peuvent également mener à de sérieuses dérives. La Chine en fournit un exemple frappant en ciblant des minorités grâce à des logiciels de reconnaissance faciale22.

Il importe donc de s’assurer que le développement de l’IA se fasse en veillant à en maximiser le bénéfice social. Définir la direction que doit prendre l’IA reviendra donc à définir les contours de la société dans laquelle nous souhaitons évoluer.

Un rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST)23 propose notamment de confier à un institut national de l’éthique de l’IA et de la robotique un rôle d’animation du débat public sur ces principes éthiques.

Du point de vue juridique, le terme d’IA pourrait être défini comme une notion-cadre qui engloberait tout objet dont la capacité cognitive lui permettrait une autonomie24. De cette définition découleraient le corps de quelles règles applicables.

Pour l’instant, le Comité économique et social européen25 se contente d’apporter le concept d’Human in command, soit la nécessité pour l’homme de garder les machines sous contrôle. S’il ne propose pas de règle, de principe ou de valeur plus précis, il préconise néanmoins l’instauration d’un code éthique applicable uniformément à l’échelle mondiale. C’est ce code qui instaurerait notamment le principe d’ethic by design.

En attendant que le législateur, français ou européen, s’empare de ces principes, la Cnil recommande de lancer une grande cause nationale participative. En cette période de réflexion, espérons que le législateur donnera tort à Bergson pour qui l’idée de l’avenir est plus féconde que l’avenir lui-même.

Points clés :

  • L’intelligence artificielle est aujourd’hui au cœur du débat public et soulève des questions éthiques importantes.
  • Notamment, une intelligence artificielle ne devrait pas pouvoir prendre « seule » des décisions : celles-ci doivent rester de la responsabilité de leurs propriétaires.
  • De ce point de vue, l’adoption d’un code éthique serait bienvenue.

1 Melvin Kranzberg, Technology and History Kransberg’s laws Technology and Culture n° 27, 1986

2 Masahiro Mori, « Uncanny Valley » Energy, 1970, 33-35

3 AI Magazine Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter signée par des dizaines d’experts en intelligence artificielle

4 Donald Kuth The Art of Computer Programming 1968

5 Rapport de Cédric Villani « Donner un sens à l’intelligence artificielle pour une stratégie nationale et européenne », mission parlementaire du 8 septembre 2017 au 8 mars 2018

6 AI Now AI Now Report 2018 décembre 2018

7 BBC News Apple AI accused of leading to man’s wrongful arrest 23 avril 2019

8 New York University Law Review, Rashida Richardson, Jason M. Schultz & Kate Crawford Dirty Data, Bad Predictions: How civil rights violation impact police data, predictive policing systems, and justice mai 2019

9 Charly Berthet Vers une politique de l’intelligence artificielle ? recueil Dalloz 2018 p. 1640

10 Rapport précité en note 10

11 Directive 2013/37/UE du 26 juin 2013 modifiant la directive 2003/98/CE concernant la réutilisation des informations du secteur public

12 AI Now Discriminating systems, Gender, Race and Power in IA Avril 2019

13 Rapport Tricot Rapport de la Commission informatique et libertés La Documentation française, coll. Rapports officiels 1975

14 Art. 47 2° de la loi n°78-17 du 6 janvier 1978 modifiée relative à l’informatique, aux fichiers et aux libertés

15 Art. L. 312-1-3 et L. 311-1-3

16 Elise Mouriesse L’opacité des algorithmes et la transparence administrative RFDA 2019 p.45 

17 Cnil Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle décembre 2017

18 Article précité en note 15

19  Le cycle des robots, 1950

20 Art. 1 de la loi n°78-17 précitée

21 New York Times One month, 500 000 faces scans: how China is using IA to profile a minority 14 avril 2019

22 Rapport Pour une intelligence artificielle maîtrisée, utile et démystifiée n°4594, 15 mars 2017

23 A. Bensamoun et G. Loiseau, L’intelligence artificielle : faut-il légiférer ?, Recueil Dalloz 2017, p. 581

24 Les retombées de l’intelligence artificielle pour le marché unique, la production la consommation, l’emploi et la société, avis INT/806

Article paru dans le magazine Option Finance Innovation le 24 juin 2019


En savoir plus sur notre cabinet d'avocats :

Notre cabinet d'avocats est l’un des principaux cabinets d’avocats d’affaires internationaux. Son enracinement local, son positionnement unique et son expertise reconnue lui permettent de fournir des solutions innovantes et à haute valeur ajoutée dans tous les domaines du droit.

A propos de notre cabinet d'avocats

Expertise : Droit de la propriété intellectuelle

Publications : Intelligence artificielle

Avocats

Anne Laure Villedieu
Anne-Laure Villedieu
Associée
Paris
Favero Eleonore
Eléonore Favero
Avocat
Paris